폴 매카트니, 비틀즈 신곡을 위해 AI를 사용
(techcrunch.com)- 올해 말에 신곡을 공개할 예정
- 1978년 "Now and Then" 의 데모 레코딩에서 추출한 존 레논의 보컬을 포함
- 기존 비틀즈 멤버의 녹음에서 AI를 이용하여 잡음을 제거하고 분리하여 고품질 재생이 가능
- 1995년에 남은 멤버끼리 이 트랙을 녹음하려고 했지만, 존 레논 트랙의 품질이 좋지 않아 조지 해리슨이 중간에 반대했다고
- 이번에는 새로 녹음한 것처럼 깨끗하게 보컬을 복원
- 매카트니는 본질적으로는 존 레논의 오리지널 녹음 처럼 들리는 음악을 AI에 생성하는 것에 대해, 여전히 약간의 회의론을 보이긴 했음
"이게 미래이기 때문에, 약간 무섭기도 하지만 설레기도 합니다."
"우린 이게 어디로 이어질지 지켜봐야 합니다."
OCR라던가, 자연어처리(번역기 등) 등의 분야에서 워낙 고전의 알고리즘적인 접근법들이 딱히 좋은 발전을 보여주지 못했던 건 사실이고(~2010년대), CNN, RNN에 기반한 심층신경망 모델들이 그런 분야에서 높은 정확도를 보여주며 기술기반을 빠르게 대체했던 것 역시 사실이죠. 지금 전통적인 문법분석 기반의 번역기를 쓰는 회사가 얼마나 남아있을까요?
음질복원 분야 역시 기존의 전통적인 보간법이나 복원 알고리즘들이 있어왔지만 그것들에 비해 AI 모델 기반 복원의 퀄리티가 월등히 좋다면 산업계는 자연스럽게 이쪽을 선택할거라 생각합니다.
이미 iZotope 같은 세계 탑급의 음향/오디오 소프트웨어 회사들은 회사 내에 AI 연구원들을 많이 보유중이고 iZotope RX 같은 솔루션만 봐도 음악에서 특정 악기나 보컬을 제거하는 AI 기술을 최신 버전에서 적극적으로 도입하고 제공하고 있습니다.
보컬 제거 모델은 Ultimate Vocal Remover라는 오픈소스 어플리케이션이 있으니 한번 써보세요. 성능 정말 좋습니다.
AI를 이용한 각종 복원 기술은 적어도 오늘날 일렉트로닉 뮤지션에게는 보급되고 당연시된 지 한참 됐는데, 구체적으로 무슨 기술을 썼길래 이런 반응이 나왔는지 궁금하네요.
원 기사는 이 뉴스를 생성형 AI와 억지로 엮어서 말하고 있는데, 이쪽과는 완전히 별개로 봐야 하는 기술이긴 합니다.
만약 Enhanced Speech from Adobe와 같이 결과물이 극단적이고 파라미터 제공도 않는 계열의 애플리케이션을 쓴 거라면 백번 공감되는 반응이기도 하지만요.
https://www.techno-edge.net/article/2023/06/14/1436.html
일본쪽 기사인데, 조지 해리슨은 'fxxxing rubbish'라고 일컬을 정도로 내켜하지 않은 모양입니다.
https://n.news.naver.com/mnews/article/025/0003286946
이 기사에서는 존 레넌의 녹음 상태가 불만이었다고 하네요.