2014년 3월 13일 목요일

컴퓨터가 뭐야?(What is the Computer?)

컴퓨터가 뭐지?

우리가 일상 생활 속에서 가장 많이 사용하는 것이 컴퓨터다. 그런데 우리가 매일 먹는 밥이 어떤 처리(과정)를 거쳐서 우리 밥상에 올라오는지를 모르고 살아가는 것처럼, 컴퓨터가 무엇인지 정확하게 모르고 살아가고 있다. 이것은 역설적으로 우리 생활 속에서 너무나 익숙하기 때문에 그 존재에 대해서 궁금해할 이유가 없어서일 수 도 있다.

우리 생활의 혁신을 가져온 컴퓨터의 역사는 그렇게 오래되지 않았다. 물론 길다면 길 수 있는 역사를 이야기할 수 있지만, 오늘날 우리가 사용하는 컴퓨터와 같은 구조를 가진 컴퓨터가 등장한 것은 이제 70~80년 밖에 되지 않았다. 더구나 우리가 개개인이 컴퓨터를 사용할 수 있는 환경을 갖춘 것은 20년도 채 되지 않는다.

일반적으로 컴퓨터의 출현시기는 19세기로 이야기를 하지만 오늘날 우리가 사용하는 프로그램이 가능한(programmable) 디지털 컴퓨터는 1940대에 등장하게 된다.

19세기에 등장한 컴퓨터는 디지털 컴퓨터가 아닌 기계식 컴퓨터나 차분기, 방직기를 위한 제어기와 같은 기능을 수행하는 것이었다.(위키피디아 참조) 이들 기계식 컴퓨터는 아날로그 컴퓨터로써 오늘날 사용하는 디지털 컴퓨터와는 다른 모습을 갖고 있다.
Difference Engine(wikipedia.org)

일반적으로 널리 알려진 현대 디지털 컴퓨터의 시초는 미국에서 1946년도에 만들어진 ENIAC (Electronic Numerical Integrator and Computer)으로 알려져 있다. 그러나 군사기밀로 알려지지 않거나 역사에서 주목 받지 못해서 사라진 컴퓨터들이 알려지기 시작하면서 ENIAC 이전에도 디지털 컴퓨터가 존재하고 있다는 사실이 밝혀졌다.(위키피디아 참조)

위키피디아의 컴퓨터 역사에 관한 자료에 의하면 1936년 독일의 Alan_Turing이 알고리즘과 계산의 수학적 기반을 다졌으며, 이를 적용한 기계를 Turing Machine 이라고 명명하였다. 이후에 보다 확장된 Universal Machine(Universal Turing Machine)의 개념을 제공하였고, 오늘날의 컴퓨터 처리 방식의 기반을 제공한 폰 노이만(John von Neumann)이 이 개념을 이어받았으며, 컴퓨터의 핵심 처리방식인 순차처리 방식이 등장하게 된다. 오늘날 우리가 사용하는 컴퓨터는 알고리즘을 완벽하게 수행하는 General Turing Machine 이라는 의미에서 Turing-complete라고 한다.

ENIAC의 등장 이전의 초기 방식 컴퓨터는 전기로 기계적 스위치를 움직이는 Electromechanical Computer 였다. 1939년 독일 엔지니어인 Konrad Zuse가 Z2를 만들었으며, 1941년에는 프로그램이 가능한 Z3를 만들었다. Z3는 2,000개의 릴레이(전자석을 이용한 스위치)를 가졌으며, 22비트, 5~10Hz의 클록 주파수를 가졌다. 초기의 Z3는 1943년 연합군의 베를린 폭격 때 파괴되었기 때문에 널리 알려지지 않았으나 1960년대에 Zuse의 회사에서 복원한 것이 뮌헨의 박물관에 전시되어있다.
Zuse Computer(복원판, 뮌헨 박물관, wikipedia.org)

순수한 전기회로로 동작하는 컴퓨터는 Tommy Flowers가수천개의 진공관으로 1934년에 만들어서 1939년에 동작하게된 전자식 전교환기가 있었으며, 1942년에는 미국 아이오와 주립대학교의John Vincent Atanasoff와 Clifford E. Berry가  300개의 진공관을 사용하여 만든 ABC(Atanasoff–Berry Computer) 컴퓨터가 최초의 자동 전자식 컴퓨터로 알려져있다. 
2차대전 중인 1943년, 독일의 암호화기인 Enigma를 해독하기 위해서 영국의 Bletchley Park이 Colossus 라는 컴퓨터를 만들어서 1944년도부터 암호해독에 사용되었다. Colossus는 최초의 프로그램 가능한 전자식 디지털 컴퓨터 이지만 Turing-complete는 아니었다.
Colossus(wikipedia.org)

1946년 미국에서는 펜실베니아 대학의 John Mauchly와 J. Presper Eckert에 의해서 ENIAC이 만들어졌는데, 이는 최초의 프로그램 가능한 전자식 디지털 컴퓨터이면서 Turing-complete 컴퓨터 였다. ENIAC은 약 18,000개의 진공관과 1,500개의 릴레이를 사용하였으며, 무게가 30톤에 200킬로와트의 전력을 소모하였고 초당 5,000회의 덧셈/뺄셈이 가능했다. 오늘날의 데스크탑 PC가 약 200와트의 전력을 소모하니까 1,000대의 PC 전력을 소모하면서 성능은 형편없었다. 물론 지금 상황에서 형편없는 것이지 1946년 당시에는 획기적인 컴퓨터이다. ENIAC은 프로그램을 변경하기 위해서 많은 케이블을 변경하여 연결함으로써 다른 프로그램으로 변경이 가능하였다.

ENIAC(wikipedia.org)

ENIAC은 제1세대 컴퓨터로 구분되며, 당시의 전자소자는 진공관이었기 때문에 진공관을 이용하여 만들어서 50만달러의 비용이 들었다. 진공관은 기본적으로 소자 하나의 크기가 크기 때문에 면적도 많이 차지하고 전력소모도 매우 크다.

1947년도에 반도체를 이용한 트랜지스터라는 전자소자가 발명되면서 진공관을 대체할 수 있게 되었다. 1955년에는 영국의 Harwell사의 원자력연구소의 전자부서에서  완전히 트랜지스터로 제작된 컴퓨터 CADET (Transistor Electronic Digital Automatic Computer – backwards)를 만들었으며, 125KHz로 동작하고 마그네틱 드럼 메모리(drum memory)를 채택하였다.

반도체를 이용한 트랜지스터의 발명은 본격적으로 디지털 컴퓨터의 혁신을 가져오게되는데, 트랜지스터는 진공관과 달리 반도체로 되어있어서 제작하는 과정에서 여러개의 트랜지스터를 한꺼번에 집적할 수 있게되었다. 이렇게 여러개의 트랜지스터가 들어가있는 것을 집적회로( integrated circuit: IC)라 불렀다. IC는 1958년 Texas Instruments사의 Jack Kilby에 의해서 처음으로 고안되었으며, 6개월 후에 Fairchild Semiconductor사의 Robert Noyce도 IC를 만들었다. Kilby는 IC를 만드는 소재로 게르마늄(Ge)을 이용하였으며, Noyce는 실리콘(Si)을 이용하였다. 실리콘은 모래(SiO2)에서 손쉽게 얻을 수 있는 원료이기 때문에 상용화가 쉽게 이루어질 수 있었다.

IC가 만들어지면서 오늘날 누구나 잘 알고있는 인텔사에서 4004라는 4비트 마이크로프로세서를 제작하면서 본격적으로 디지털컴퓨터 시대를 열어간다. 성능은 말할 것도 없고 가격도 비교할 수 없을 정도로 저렴한 컴퓨터가 등장하기 시작하는 것이다.

컴퓨터에서 연산을 담당하는 마이크로프로세서 또는 CPU(Central Processing Unit)의 발전과 함께 주변장치와 메모리 등의 발전하면서 오늘날의 컴퓨터의 모습을 갖춰가기 시작하였고, 따라서 컴퓨터는 4가지 요소로 구성된다.
  1. CPU
  2. Memory
  3. Input
  4. Output
위에서 언급된 4가지 요소는 하드웨어적인 요소이며, 하드웨어를 운영하기 위해서는 소프트웨어가 있어야 한다. 소프트웨어는  다음과 같이 2가지로 구분한다.

  1. System Software(Operating System, Utility)
  2. Application Software


2014년 3월 12일 수요일

Funny Story from "What would Google do?"(구글노믹스에서 나오는 웃긴 이야기)

출판된지는 몇년되었지만 요즘 구글노믹스(원제: What would Google do?)를 읽고 있다. 이책을 읽다가 아주 재미있는 이야기를 하나 읽었다.그 내용은 아래와 같다.

"좋다. 소비재, 소도구, 패션이 모두 구글화가 가능하다. 그러나 구글 화장지는 어떤가? 분명 화장지에 구글식 사고방식을 적용하는 것은 불가능하다. 화장실 휴지 커뮤니티는 존재하지 않을 것이다. 나는 엉덩이에 휴지가루를 전혀 남기지 않는다는 것을 강조하는 화장지 광고를 본 후 화장실 2.0 시대를 상상하기만 해도 오금이 저린다. 그건 분명히 정말 만들기 어려운 광고였다. 그런 광고는 광고가 존재하지 말아야 할 이유를 알려준다."

책을 읽다가 웃음이 터져나올뻔 했다. ^^

생각해보니 휴지가루보다는 X가루가 더 문제가 아닐까 했는데, 바로 뒤에 나오는 이야기가 토토라는 일본 브랜드에 관한 것이었다. 오늘날 우리가 비데로 잘 알고 사용하고 있는 제품이 등장한 것이다. 음 X 가루 걱정이 없어지긴 했다.


특징기반 필터링 기술(Fingerprinting)

한국저작권위원회에서 제작한 특징기반 필터링 기술에 대한 소개 영상.
특징기반 필터링 기술은 핑거프린팅 기술이라고도 불리우는데, 이는 콘텐츠가 가지고 있는 고유정보(특징)이 마치 사람의 지문과 같기 때문에 핑거프린팅 기술이라고도 불린다. 시장에서는 인간의 DNA와 같다고하여 DNA 필터링 기술이라고도 불린다. 특징DB를 구축하여 불법 저작물 또는 음란물과 같은 유해물을 차단하는데 이용할 수 있다.

특징기반 필터링 기술 소개 동영상

DRM(Digital Rights Management)에 대한 소개 동영상

한국저작권위원회에서 제작한 DRM 기술에 대한 소개 동영상.
약 5분에 걸쳐서 DRM 기술에 대해서 쉽게 설명하고 있다.

DRM 기술 소개 동영상

Watermarking 기술에 대한 설명 동영상

한국저작권위원회 정보센터의 기술연구팀에서 제작한 워터마킹/포렌식마킹 기술에 대한 설명 동영상. 약 5분정도의 길이로 아주 쉽게 이해할 수 있도록 되어있다.

워터마킹 기술 영상자료

하둡이 뭐야? (What is Hadoop?)

빅데이터라는 이야기를 들으면서 항상 함께 들려오는 소리가 하둡(Hadoop)이다. 귀엽게 생긴 노란 코끼리가 나오는 하둡이 도대체 뭐하는 것일까?

하둡은 대용량 데이터를 분산처리할 수 있는 기술이다. 대표적인 기능으로는 대용량 파일을 분산 저장할 수 있는 분산파일 시스템과 데이터를 분산되어있는 여러 컴퓨터의 자원을 이용하여 빠르게 분석할 수 있는 맵리듀스(MapReduce) 엔진을 들 수 있다.

더구나 하둡은 오픈소스소프트웨어이다. 누구나 자유롭게 사용할 수 있다. 물론 자유롭게 사용은 가능하지만 오픈소스에도 라이선스 규칙이 있기 때문에 이에 대해서 유의해야할 것이다.

하둡에 대한 자세한 글

Apache Hadoop


빅데이터가 뭐야?(What is BigData?)

빅데이터가 초미의 관심사다.
도대체 빅데이터가 뭐길래 이렇게 관심이 많을까?

컴퓨터의 처리능력 향상에 따라서 다양한 정보들이 생산된다. 대량 인쇄술의 발명이후에 인류의 지식은 급속도로 퍼져나가게 되었으며, 발생하는 정보의 양은 기하급수적으로 늘어나게 되었다. 특히, 컴퓨터 기술은 개인들이 정보를 자유롭게 생성할 수 있는 도구를 제공하였으며, 네트워크 기술은 이들 정보가 전 세계로 재빨리 퍼져나갈 수 있는 길을 제공하였다. 다수의 정보생산자들이 만들어내는 수많은 정보나 오랜 기간 누적되어온 정보들은 점차 그 방대한 양으로 인해서 유용성을 가려내기가 힘들어지고 있다.
IDC2011년도 “Digital Universe Study” 보고서2012년도 “IDC Predictions 2012” 보고서에서 디지털 정보의 생산량에 대하여 2011년도에는 1.8 ZB(zettabyte = billion terabyte)가 생산되었으며, 2012년도에는 2.7ZB, 2015년도에는 8ZB가 생산될 것으로 예측하고 있다. 아울러 기업에서 관리해야하는 정보량은 10년 뒤인 2020년에는 50배로 증가할 것으로 예측하고 있다.
 
이러한 정보량은 우리가 어림잡기가 어려운 수치이다. 이해를 돕기 위해서 블로터닷넷에서 2011년 생산된 1.8ZB의 정보량에 대한 비교 수치를 토대로 2012년도 예상 정보량인 2.7ZB의 비교수치를 아래에 적어본다.

  • 대한민국 인구 5천만명(2012623일 기준)140Byte를 가득 채운 트위터 글을 분당 3개씩 244,618년 동안 게시해야 하는 양.
  • Blu-ray Full HD 영화(20GB로 계산) 1,350억개 2시간의 상영시간으로 계산하면 한 사람이 쉬지 않고 3,082만년 동안 시청할 분량.
  • 최신 3TB 하드디스크 9억개 - 대기상태에서의 전력소모량이 3.2W이므로, 전체 정보량의 대기상태에서의 전력 소모량만 288KW로 최근에 가동을 준비하고 있는 원자력 발전소(100KW 발전용량) 3기를 지어야만 하드디스크를 유지할 수 있는 분량. 가격으로는 대당 27만원의 최신기종의 경우 243조원이 소요되어, 우리나라 2012년도 일년 예산인 325조원의 74.8%의 비용.
 
위에 표시된 비교자료는 2012년에만 발생될 것으로 예상되는 정보량에 대한 것이다. 이러한 정보들이 꾸준히 누적된다는 것을 감안한다면, 그 양이 얼마나 큰 것인지를 가늠할 수 있을 것이다. 더욱이 20101ZB의 벽을 넘어선 이후로 정보 생산량의 증가속도는 매년 50%에 달하고 있으며, 디지털 CCTV(Closed Circuit TV)의 설치 증가와 자동차 블랙박스의 장착 의무화 같은 제도는 디지털 정보생산량의 증가를 더욱 부추기고 있다.
이렇듯 엄청난 속도로 증가하는 디지털 정보는 이제까지 다뤄보지 못했던 대용량의 비정형화된 데이터(빅데이터)이며, 이들 대용량 비정형 데이터로부터 유의미한 결과를 얻어내기 위해서는 빅데이터의 저장에서부터 관리 및 활용을 위한 새로운 기술을 필요로 한다.
 
빅데이터는 새로운 것인가?
 
앞에서 언급한 것처럼 디지털 기술에 의해서 정보생산량이 기하급수적으로 증가하고 있는 것을 알 수 있다. 그러나 현재 생산되는 정보량에는 미치지 못하더라도 인류의 오랜 역사기간 동안 수많은 기록들이 존재하고, 17천 년 전의 라스코/알타미라 동굴벽화는 최초의 문화유산에 대한 기록이며, 기원전 4,000년경에는 수메르인들에 의해서 점토판에 쐐기문자로 기록이 남겨졌다. 이후로 빅데이터라는 개념이 자리 잡기까지 무수히 많은 정보들이 생산되었을 것인데, 선사시대부터 지금까지의 많은 정보가 쌓여있다면 이것이 빅데이터가 될 것이다. 그렇다면, 지금 우리가 말하고 있는 빅데이터는 새로운 것이라고 할 수 없으며, 과거에도 수많은 데이터를 갖고 있었으나 저장장소의 제한으로 당장의 유용한 데이터만을 남기고 버릴 수밖에 없는 구조적 한계가 있었다.
최초의 하드디스크가 나온 것은 1956IBM에서 출시한 RAMAC(Random Access Method of Accounting and Control)이라는 제품으로 24인치 원판 50개를 쌓아서 만들었으며, 용량은 3.75MB에 불과하지만 가격은 5만 달러에 달하였다. 당시 발표는 5MiB라고 하였으나, 6bit단위로 오늘날의 8bit단위와 다르기 때문에 정확하게는 3.75MB이며, 따라서 1MB당 가격이 13333달러에 달하였다. 필자가 1989년도에 20MB 하드디스크를 당시에 20만원에 구입하였으며, 1MB1만원으로 약 1,467배가 하락하였으며, 오늘날 3TB의 최신형 하드디스크가 27만원이므로 1GB90원에 불과한 수준으로 약 16,296만 배 하락하였다
 
이와 같은 저장장치 가격의 하락은 그동안 저장장치의 가격이 높아서 버려야만 했던 사소한 데이터들 까지도 모두 저장할 수 있는 환경을 제공하게 되었으며, 점차 쌓여가는 데이터들이 빅데이터를 구성하게 되고, 이를 다룰 수 있는 새로운 기술에 대한 요구가 높아지게 된 것이다. 빅데이터에 대한 관심도는 구글 검색에서 검색어 출현빈도를 나타내는 구글 트렌드에서도 년대별로 확인할 수 있다.
 

 
구글 트렌드에서 확인할 수 있는 것처럼 빅데이터에 대한 트렌드가 나타나기 시작하는 시점은 2006년이며, 이 시점은 하드디스크 저장장치의 GByte당 단가가 1달러 이하로 떨어지는 때이다. 이러한 관점에서 바라본다면 빅데이터는 어느 날 갑자기 탄생한 것이 아니라 많은 사람들이 관심을 갖고 지켜볼 수 있는 주변환경이 갖추어지면서 드러난 개념이라고 할 수 있다.
 
빅데이터를 위한 기술과 활용
 
빅데이터는 앞에서 살펴본 것처럼 헤아릴 수 없을 정도로 많은 데이터를 의미하고 있다. 그렇다면 빅데이터를 위한 기술은 어떠한 것이 있을까? IDC의 칼 올롭슨은 크기가 큰 데이터를 처리한다고 모두가 빅데이터 기술은 아니라고 하였으며, IBM3V, 즉 다양성(Variety), 규모(Volume), 속도(Velocity)라는 빅데이터의 세 가지 요소 중에서 2가지 이상을 만족하면 빅데이터 기술이라고 정의하고 있다.
McKinsey Global Institute의 빅데이터 관련 보고서IDG Korea에서 발간한 빅데이터의 이해에서는 빅데이터 기술을 3가지로 구분하고 있으며, 이는 빅데이터 분석기술과 인프라 기술, 표현기술이다. 빅데이터 분석기술은 거대한 데이터를 분석하는 기술과 방법론으로써 통계처리, 데이터마이닝, 데이터 융합, 자연어 처리, 회귀분석, 기계학습, 최적화, 신경망, 패턴인식, 예측 모델링, 시뮬레이션 등 다양한 분석 기술을 포함하고 있다. 인프라 기술은 빅데이터를 수집하고 처리, 관리하는 기술로써 빅 테이블(분산 데이터베이스), Business intelligence(BI), 분산 데이터베이스(카산드라), 클라우드 컴퓨팅, 데이터웨어하우스, 분산 시스템, 분산 파일 시스템, 맵리듀스(MapReduce), 메쉬업(Mashup), 메타데이터 등을 포함하고 있다. 빅데이터의 표현기술은 데이터시각화로 알려져 있으며, 분석 처리된 결과를 사람들이 잘 이해할 수 있도록 보여주는 것으로 태그구름이나 클러스터그램, 이력플로우, 공간정보의 흐름과 같은 데이터시각화 예가 있다.
 

그림 태그구름의 예
 
그렇다면 빅데이터와 함께 많이 등장하는 하둡(Hadoop)은 어떤 기술인가? 하둡은 오픈소스소프트웨어 프레임워크로써 아파치 v2 라이선스 하에서 활용할 수 있는 빅데이터 인프라 기술이다. 하둡은 하둡 분산 파일 시스템(HDFS: Hadoop Distributed File System)을 이용하여 거대한 클러스터에 존재하는 서버들 간에 대용량의 파일을 신뢰성있게 저장하도록 설계하였으며, 하둡 맵리듀스(Map/Reduce)라는 거대한 분산처리를 표현할 수 있는 자바기반의 프레임워크 와 함께 빅데이터의 핵심 기술로 알려져있다. 이러한 파일 시스템과 분산처리 플랫폼에 추가적으로 검색이나 데이터 수집 시스템, 데이터 분석 프레임워크를 추가하여 인프라를 구축한 것이 하둡이다.
이러한 빅데이터는 다양한 분야에 응용될 수 있으며, 현재 여러 분야에서 비용절감에 효과적으로 이용되고 있다. 대표적으로 맥킨지 보고서는 미국 의료서비스분야, 유럽의 공공서비스, 전 세계 개인 데이터, 미국의 소매점, 제조업 분야에서 비용과 생산성에서 많은 이득을 얻는 것으로 보고하고 있다.


2014년 3월 11일 화요일

Google glass forensic

구글 글래스 포렌식에 관한 글.
구글 글래스는 웨어러블이기 때문에, 어디서든 정보유출, 프라이버시 침해의 위험이 있다.

http://desautelsja.blogspot.kr/2014/03/google-glass-forensics-google-searches.html

2014년 3월 10일 월요일

FLAC(Free Lossless Audio Codec)

MP3 음악은 파일 저장 크기를 줄이기 위해서 압축을 한다. 압축하는 과정에서 인간의 청각시스템이 인지할 수 없다고 판단되는 성분을 제거하여 압축을 효율적으로 함으로써 파일 크기를 1/10로 줄일 수 있다. 그러나 인간의 욕구는 보다 고품질의 음악을 듣기를 원하고 저장매체의 가격이 매우 저렴해진 오늘날에는 음질을 손상시키면서 압축할 필요성을 느끼지 못한다.

일반적으로 인간의 청각시스템은 20Hz~20KHz 사이의 음향을 들을 수 있다고 한다. 그러나 나이를 먹어가면서 그 대역폭은 점차로 줄어들게 된다. 따라서 청각이 아주 예민하게 발달된 사람이 아니고서야 MP3가 되었든, 원음이 되었든 차이를 느끼기가 쉽지는 않다.

그래도 손실없이 파일을 저장하길 원하는 하이엔드 유저의 요구사항이 있고, 그를 맞춰주기 위해서 무손실 압축 방식이 등장하는데, FLAC은 라이선스가 없는 무손실압축 방식이다. 많은 사이트에서 MP3음악과 함께 무손실 버전으로 FLAC 음악서비스도 함께 지원하고 있다.

사람의 취향에 따라 다르겠지만 청각이 예민하다고 자부하는 사람들은 FLAC을 이용해볼만하다.

FLAC 더 알아보기


지나가는 이야기 하나..

1970년대 트랜지스터의 발명으로 진공관 오디오에서 트랜지스터 오디오가 등장하면서 시끄러웠던 논란 중의 하나가 트랜지스터 오디오의 소리가 진공관 오디오의 소리만 못하다는 것이었다. 당시 트랜지스터 오디오 제품을 출시한 회사에서는 오디오 전문가(속칭 골든이어-Golden Ear: 청각이 매우 예민한 전문가)들을 데려다가 진공관 오디오와 트랜지스터 오디오의 음질차이를 평가해줄 것을 의뢰했다. 회사에서는 전문가에게 스위치 박스를 하나주고 진공관 오디오와 트랜지스터 오디오를 선택해가면서 음악을 듣고 평가 보고서를 작성해줄 것을 요청했다. 전문가들은 실험이 끝나고 무려 40여페이지에 달하는 보고서를 작성하여 진공관 오디오의 우수성을 입증하였다.
보고서를 받아든 회사 관계자는 평가 전문가들에게 감사를 표하면서 시험에 사용한 스위치박스를 열어서 보여주었다. 스위치 박스속에는 아무것도 전환되는 것이 없었다. 그들은 동일한 음악을 계속 들으면서 같은 것에 대해서 다른 평가를 한 것이다.

뭐.. 그랬단다..

MP3(MPEG-1 Audio Layer 3)

요즘 가장 많은 사람들이 즐겨듣는 디지털 음악의 포맷은 MP3이다. MP3는 MPEG(Motion Picture Expert Group)이라는 표준화 단체에서 동영상 압축 포맷을 논의하는 과정에서 동영상에 포함된 음향 압축에 대한 표준을 다룬 것 중의 하나가 MP3이다.
MP3 표준이 등장한 것은 오래되었지만, 이를 대중화하여 사용하기 시작한 것은 한참 뒤의 일이다. 인터넷으로 음악을 다운로드 받을 수 있게되면서 MP3 음악에 대한 수요가 급증하였으며, MP3를 재생할 수 있는 MP3 플레이어가 보급되면서 널리 사용되기 시작하였다.
MP3 플레이어를 이야기하면 우리나라 새한미디어의 MPman을 빼놓을 수 없다. 세계최초로 특허를 출원하였으나 국내에서 특허무효소송이 벌어져서 특허등록이 취소된 사건이 있었다.  이 특허가 잘 유지되고 세계특허까지 보유했다면 새한미디어의 미래가 달라졌을 것이다.
휴대폰과 스마트폰의 등장으로 MP3 플레이어에 대한 수요가 급감하기 전까지 우리나라가 전 세계 MP3 플레이어 시장의 리더 역할을 했었다. 애플의 iPOD에 많이 밀리기는 했지만 스마트폰 등장 이전까지는 우리나라가 최강자 였다.

MP3 좀 더 자세히 알아보기.

Digital Forensics

몇개월전에 인터넷 사업자를 변경하고나서 집에 IPTV가 설치되면서 유독 재미있게 보고있는 것이 CSI 시리즈이다. CSI는 Las Vegas, New York, Miami로 구성되어있는데, 과학수사를 하면서 다양한 장비와 기술이 사용되는 것을 볼 수 있다.
Forensic이 범죄현장에서는 법의학적인 관점에서 많이 사용되었는데, 컴퓨터와 네트워크의 보급으로 컴퓨터관련 범죄가 급증하면서 디지털 포렌식의 개념이 생겨났다.

디지털 포렌식 전문가가 되기 위해서는 컴퓨터 하드웨어와 소프트웨어에 대해서 잘 알아야할 것이다. 특히 저장장치와 운영체제(파일 시스템)에 대해서 잘 이해를 해야 원하는 정보를 취득하여 분석할 수 있다.

이와 관련하여 아주 좋은 사이트가 있다. 전문가로써 많은 자료를 축적한 저자에게 감사드리면서 링크한다.

컴퓨터 포렌식 자료

A Reversible Watermarking Based on Histogram Shifting(2006)

A Reversible Watermarking Based on Histogram Shifting

JinHa Hwang, JongWeon Kim, and JongUk Choi1

In this paper, we propose a reversible watermarking algorithm where
an original image can be recovered from watermarked image data. Most watermarking
algorithms cause degradation of image quality in original digital content
in the process of embedding watermark. In the proposed algorithm, the
original image can be obtained when the degradation is removed from the watermarked
image after extracting watermark information. In the proposed algorithm,
we utilize a peak point of image histogram and the location map and
modify pixel values slightly to embed data. Because the peak point of image
histogram and location map are employed in this algorithm, there is no need of
extra information transmitted to receiving side. Also, because a slight modification
on pixel values is conducted, highly imperceptibly images can be achieved.
As locations of watermark embedding are identified using location map,
amount of watermark data can dramatically increases through recursive embedding.
Experimental results show that it can embed 5K to 130K bits of additional
data.

Lecture Notes in Computer Science Volume 4283, 2006, pp 348-361

A Reversible Watermarking Based on Histogram Shifting