Tunatic 1.0.1b
Tunatic은 흘러나오는 곡을 듣고 DNA를 판독하여 인식, 곡명을 찾아주는 소프트웨어이다. 언젠가는 나오리라고 생각했던 소프트웨어이며 이 기술은 사실 생소한 것이 아니다.
이 기술은 알게 모르게 상용화가 진행되어 왔고 아마도 Music Meta Data를 전문적으로 다루는 Gracenote나 All Music Guide(이하AMG)와 같은 업체에서는 이미 가지고 있으리라 생각되는 기술이다.
(혹시 뮤직 메타데이타에 대해 더 궁금한 점이 있다면 이 블로그의 ‘한국형 CDDB는 포기해야 하나?’ 를 비롯한 관련 포스트를 참고하시라)
작동은 간단하다. 나는 맥미니와 맥북을 가지고 있는데 맥미니의 iTunes에서 음악을 크게 틀어놓고 맥북에서 Tunatic을 구동시켜 음악을 들려준다.
자아 위의 화면이 Tunatic의 화면 전부인데(매우 간단하다) 음악을 틀어놓으면 윈도우 중간의 선이 소리의 크기에 따라 파형을 이룬다. 이 상태에서 찾기 버튼을 누르기만 하면 된다.
Tunatic은 곡의 파형을 자신들의 서버에 보내 일치되는 DNA를 검색하기 시작한다. 곡에 따라 검색시간은 좀 다르지만 2-30초 이상 길게 들려줘야 한다.
자, Tunatic이 정확하게 Lee Ritenour의 Night Rhythms을 물어왔다. 처음에 해보면 참으로 신기하기도 하다.
Doors와 같이 유명한 그룹의 노래들은 거의 다 메타데이타를 가지고 있는것 같다. 물론 블랙사바스도 말이다. (아래그림)
음악관련 사업을 하려면 음악의 메타데이타가 반드시 필요하다. iTunes조차 Gracenote를 통해 메타데이타 서비스를 받고있으며 AMG로 부터 음반해설 정보를 받고있다. 내 기억으로는 1-2년전까지 그레이스노트가 가진 전세계 음악 메타데이타가 6천만건 정도였는데 이제 이들은 이 메타데이타를 무기로 모든 곡의 DNA 또는 Digital Fingerprint를 메타데이타와 매칭시켜 또다시 차곡차곡 쌓아가고 있다.
그레이스노트 등이 유저들이 입력해준 메타데이타를 저장하는 방법으로 순식간에 수백만명으로부터 수천만건의 메타데이타를 공짜로 축적했다면 이제 DNA는 굳이 그럴필요 없이 음악으로 부터 직접 추출하고 있을 것이다.
내 생각에 이건 간단하다. 수천만개의 MP3화일들을 순차적으로 플레이 시켜 자동으로 DNA를 DB에 쌓이도록 하는 것은 그리 어려운 일이 아니기 때문이다.
Tunatic을 만든 Wildbits.com은 이와 비슷한 또하나의 소프트웨어를 가지고 있는데 Tunalyzer라 불리우는 에이전트 소프트웨어이다. 이 녀석은 하드디스크내의 음악화일들을 찾아내어 컴퓨터가 놀때 이들의 DNA와 메타데이타를 추출해 자신들의 서버로 차례로 보내는 기능을 하고 있는데 이들의 의도는 여기서 좀 명백해지게 된다.
한꺼번에 음악 메타데이타와 DNA를 수백만대의 컴퓨터로 부터 뽑아오겠다는 것이다. 그러나 작년부터 이 소프트웨어를 계속 관찰해본 결과 이들이 급격하게 메타데이타를 성공적으로 축적하고 있지는 못하다는 느낌이 든다.
아직까지 Tunatic이 인식하지 못하는 곡들이 작년과 거의 달라지지 않았기 때문이다. 물론 그들이 지금 가지고 있는 데이타만 하더라도 엄청난 분량이겠지만 이들이 그레이스노트와 같이 상업적으로 성공할 지는 미지수다.
결국 음악사업에 있어서 메타데이타는 반도체 산업에서 웨이퍼 기판을 제조하는 것과 같은 기초재료 사업으로서 앞으로도 계속 발전가능성이 있는 분야이다. 최근에 소니가 그레이스 노트를 사들이고 매크로비전이 AMG를 잇달아 사들인 것도 그와 무관하지 않다. 국내만 해도 SM엔터테인먼트가 메타데이타 업체인 자끄르를 인수했다.
역시 오늘의 결론은 우리나라의 음반 메타데이타는 거의 지리멸렬 수준이라는 것과 좀 뜻있는 기업이나 기관이 제대로 이런것들을 갖추어 주었으면 하는 것이다. 언제까지 아이팟에 음반쟈켓을 일일히 갖다 붙여야 하나 말이다.
아 참…오늘의 맺음말. Tunatic은 윈도우 버전도 존재한다.
Tunatic에 대한 또 다른 포스트는 Leica 님의 블로그를 참조바란다.
(볼때마다 느끼는 사실이지만 Leica님의 블로그는 정말 감탄스럽다. 그분의 어처구니 없는 생산력과 높은 품질에 언제나 고개가 숙여질따름이다)
Facebook Comments
흠.. 신기하구나. 근데 소리의 패턴을 인식해서 음악을 찾아내는 건 메타데이터와는 좀 다르지 않나? 기존의 메타데이터는 주로 앨범이나 곡, 아티스트같은 텍스트 기반의 태그 정보들이 대부분이잖냐. 소리의 파형을 분석해서 그걸 메타데이터화 하고 곡과 매치시키려면 메타데이터가 꽤 커야겠구만. 물론 flikr같은 곳에서도 사람이 입력한 태그 정보가 아닌 간단한 이미지 패턴을 찾아주긴 한다만.. 실제의 효용성을 떠나서 논문에나 있을 법한 아이디어들이 상용화가 시도된다는 게 신기하다. ^^
메타데이타가 기본적으로 갖추어져 있어야 Digital Finger Print도 그에 매칭을 시킬 수 있기 때문에 중요한 거지 뭐… 단순히 DNA만 가지고 있는 것은 부가가치가 약간 떨어진다 할 수 있거든.
내 생각엔 아직 이 기술은 초기수준인거 같아. 거의 실시간으로 1-2초 이내에 곡을 듣고 찾아낼 수 있는 수준이라야 상업적으로도 효용성이 있을 듯한데 … 그러려면 좀 더 연구를 해야할듯 하다
요즘 시스템즈의 이런저런 제안서들을 마구마구 검토를 해야하는데..음..많이 본 그림들과 문서의 구성이 보이더라..ㅋㅋ
조만간에 함 갈게..
응 알게모르게 여기저기 섞여있을게다 …
이 프로그램 예전에 써봤었는데, 아주 정확하게 곡을 찾더군요.
한가지 아쉬운 점은 마이크로 들리는 소리만 잡아준다는것..
제가 알기로는 마이크 말고도 입력방법이 있다고 들었는데 귀찮아서 그냥 마이크만 사용하고 있답니다. 그 방법도 찾아서 한번 업데이트 해보도록 하겠습니다~ ^^
찾는 곡은 거의 다 정확한것 같습니다