인공 지능 음악 | Ai와 음악의 만남 – 인공지능이 음악을 창작하는 시대 [사이언스 포럼] / Ytn 사이언스 인기 답변 업데이트

당신은 주제를 찾고 있습니까 “인공 지능 음악 – AI와 음악의 만남 – 인공지능이 음악을 창작하는 시대 [사이언스 포럼] / YTN 사이언스“? 다음 카테고리의 웹사이트 ppa.maxfit.vn 에서 귀하의 모든 질문에 답변해 드립니다: https://ppa.maxfit.vn/blog. 바로 아래에서 답을 찾을 수 있습니다. 작성자 YTN 사이언스 이(가) 작성한 기사에는 조회수 6,373회 및 좋아요 117개 개의 좋아요가 있습니다.

인공 지능 음악 주제에 대한 동영상 보기

여기에서 이 주제에 대한 비디오를 시청하십시오. 주의 깊게 살펴보고 읽고 있는 내용에 대한 피드백을 제공하세요!

d여기에서 AI와 음악의 만남 – 인공지능이 음악을 창작하는 시대 [사이언스 포럼] / YTN 사이언스 – 인공 지능 음악 주제에 대한 세부정보를 참조하세요

지금까지 음악 예술은 인간 고유의 영역이라 여겨졌다.
그러나 이제는 인공지능이 음악을 창작하는 시대!
창의성을 필요로 하는 음악과 인공지능이 만나면 어떤 일들이 벌어질까?
이교구 서울대학교 지능정보융합학과 교수
[YTN 사이언스 기사원문] https://science.ytn.co.kr/program/program_view.php?s_mcd=0085\u0026s_hcd=\u0026key=202006220920289991

인공 지능 음악 주제에 대한 자세한 내용은 여기를 참조하세요.

[기획연재: AI와 음악을] ③ AI, 음악 산업계 신흥 강자로 떠오르다

AI 작곡은 기계학습을 기반으로, 특히 딥러닝이라는 기계학습 알고리즘이 활용되고 있습니다. 인간 작곡가가 수많은 곡을 들어보고 이로부터 일종의 패턴 …

+ 여기에 자세히 보기

Source: www.aitimes.com

Date Published: 4/11/2022

View: 4123

인공지능(AI)은 어떻게 ‘음악’을 만들까? – LG CNS 블로그

소리의 높낮이나 빠르기 등 다양한 특징이 있고, 연주곡이 아닌 가사가 포함된 음악에는 가사, 즉 텍스트가 고유의 특징이 됩니다. 음악이 지닌 특징을 …

+ 여기에 표시

Source: blog.lgcns.com

Date Published: 9/20/2021

View: 1834

AI가 나만의 곡을 5분만에 뚝딱…네이버가 먼저 알아봤다 긱스

기사 서두에 AI가 작곡한 곡도 들을 수 있습니다. 한경 긱스가 ‘편안하고 차분한 음악’을 주문하자 포자랩스 AI는 5분만에 재즈 선율의 피아노곡을 내놨 …

+ 더 읽기

Source: www.hankyung.com

Date Published: 12/9/2021

View: 9147

인공지능(AI) 음악, 어디까지 가능할까? – 씨넷코리아

인공지능(AI)이 샘플링과 홈 레코딩 부문에서 활약할 날이 머지 않은 것 같다. 빌리 아일리시도 친오빠와 함께 집에서 녹음한 음악으로 …

+ 여기에 보기

Source: m.cnet.co.kr

Date Published: 12/11/2021

View: 1144

가까이 온 인공지능(AI) 음악 – 브런치

가까이 온 인공지능(AI) 음악 · 영국 중앙은행은 2021년부터 사용하는 최고액권인 50파운드 지폐의 인물로 인공 지능의 아버지 <앨런 튜링(Alan Mathison ...

+ 여기에 표시

Source: brunch.co.kr

Date Published: 2/3/2022

View: 2244

김광석까지 환생시킨 AI … 음악계 점령할까 – 중앙일보

‘AI 음악의 감동’은 딥러닝을 활용한 음성·가창 합성 기술의 급격한 발전으로 가능했다. 가창을 합성하는 신경망과 합성된 음성이 진짜인지 가짜인지 …

+ 여기에 자세히 보기

Source: www.joongang.co.kr

Date Published: 10/12/2022

View: 9837

10분이면 한 곡 뚝딱… AI 작곡 스타트업 ‘포자랩스’ 창업 스토리

허원길 포자랩스 대표는 ‘인공지능 개발자’라는 장래희망과 5살 때부터 피아노를 치며 키워온 음악에 대한 관심을 접목해 인공지능(AI) 작곡 스타트업 …

+ 여기를 클릭

Source: zdnet.co.kr

Date Published: 9/3/2022

View: 3695

AI가 음악을 만날 때 : 〈인공지능의 음악적 소양〉 – 서울대 소식

그렇다면, 인공지능이 음악을 창작하고 철학을 담아 연주하는 것 또한 가능할까? 나아가, 인간의 고유한 영역이라 여겨져 온 예술 전반에서 인간이 …

+ 여기에 자세히 보기

Source: www.snu.ac.kr

Date Published: 12/22/2021

View: 5910

주제와 관련된 이미지 인공 지능 음악

주제와 관련된 더 많은 사진을 참조하십시오 AI와 음악의 만남 – 인공지능이 음악을 창작하는 시대 [사이언스 포럼] / YTN 사이언스. 댓글에서 더 많은 관련 이미지를 보거나 필요한 경우 더 많은 관련 기사를 볼 수 있습니다.

AI와 음악의 만남 - 인공지능이 음악을 창작하는 시대 [사이언스 포럼] / YTN 사이언스
AI와 음악의 만남 – 인공지능이 음악을 창작하는 시대 [사이언스 포럼] / YTN 사이언스

주제에 대한 기사 평가 인공 지능 음악

  • Author: YTN 사이언스
  • Views: 조회수 6,373회
  • Likes: 좋아요 117개
  • Date Published: 2020. 6. 21.
  • Video Url link: https://www.youtube.com/watch?v=RJ5UrsuDy6I

[기획연재: AI와 음악을] ③ AI, 음악 산업계 신흥 강자로 떠오르다

편집자 주 ‘콩나물’ 이어폰이나 헤드폰에 수십만원을 투자하고, 매월 유료 스트리밍 서비스 결제가 낯설지 않다. 음악 시장이 크게 바뀌고 있다.

코로나19로 촉발된 ‘집콕’으로 언택트(Untact)와 온택트(Ontact)가 조화를 이룬 소위 ‘음악 전성 시대’가 도래한 것. 관련 기업 매출과 주가는 연일 상승 추세에, 수준 높은 인력과 거대 자금이 유입되면서 더 우수한 상품과 서비스가 나타나는 선순환 구조를 만들고 있다. ▲음원 손실이 적은 녹음 기술 발달 ▲가상악기(VSTI) 만으로 실현 가능 ▲스마트폰 보급ㆍ발전 ▲통신 속도 향상으로 언제 어디서나 음악을 듣는 시대. 메타버스(Metaverse) 공간에서 신곡 발표, 쇼케이스가 진행되는 디지털 음악 시장의 바탕에는 AI(인공지능) 기술과 IT(정보통신) 기술이 깔려 있다.

◇특별취재팀: 팀장 권영민, 최명현ㆍ정윤아ㆍ박혜섭ㆍ장희수 기자

캐나다 기술 기업 매시브 테크놀로지(Massive Technologies)의 창업자 Fayez Salka는 트위터에 흥미로운 영상을 공개했다. (영상 링크) 3D 렌더링된 사람 모습의 AI 피아니스트가 클래식 음악과 애니메이션 음악을 연주한다. 매시브 테크놀로지는 원시 오디오(Raw audio) 파일을 입력, 학습시켜 연주 기법과 신체의 움직임을 애니메이션으로 구현했다.

매시브 테크놀로지 3D 연주 영상.(사진=유튜브)

영상 속 AI 피아니스트는 어떤 어려운 곡이든 연주해낸다. 해당 영상은 50만 뷰를 돌파했으며 AI도 연주할 수 있다는 것을 보여줬다.

◆ 빅히트, 음성합성기술 기업 수퍼톤에 투자

지난해 음성 AI를 연구해온 서울대 이교구(지능정보융합학과) 교수는 음성합성기술 스타트업, 수퍼톤을 설립했다. 수퍼톤은 ‘AI 음악 프로젝트-다시 한번’과 SBS ‘세기의 대결! AI vs 인간’ 등 프로그램을 통해 음성합성기술을 선보였다. 엠넷 ‘다시 한번’에서 혼성그룹 ‘거북이’의 고(故) 터틀맨(임성훈)과 가수 김현식의 목소리를 복원했다. ‘AI vs 인간’에서는 고(故) 김광석의 목소리를 구현했다.

AI 스피커의 유행으로 구글과 네이버가 TTS(Text to Speech, 글을 말로 읽어주기)에 달려들 때 이들은 AI와 음악을 연구했다. 지난해 수퍼톤을 설립해 시기는 뒤쳐졌지만 야마하 보컬로이드보다 완성도 높다.

많은 음악 AI 기업들은 ‘불편한 골짜기’에 빠져 기술의 정체를 겪는다. 불편한 골짜기란 인간이 아닌 존재를 볼 때 인간과 더 닮을 수록 호감을 갖지만 일정 수준에 도달하면 불쾌감을 느낀다는 이론이다. ( 원문 링크) 수퍼톤은 극복했다. 야마하를 제치고 수퍼톤은 2019년 음성국제학회에서 최우수논문상을 수상했다.

코로나19로 대면 활동이 단절돼 엔터 업계의 주 수익원이던 오프라인 콘서트가 불가능했다. 활로를 찾고 있던 해당 업계는 수퍼톤의 음성합성 기술을 주목했다. 수퍼톤은 대형 엔터 기업 빅히트와 손을 잡았다. 빅히트는 지난달 수퍼톤에 40억 원 규모의 투자를 유치했다.

엔터와 음성합성 기술이 합쳐져 연예인 목소리를 활용한 컨텐츠 사업이 가능하다. 이교구 교수에 따르면, ” 시간 부족한 톱스타가 오디오북을 녹음하고 광고를 찍을 수 있다. BTS가 한국어, 영어뿐 아니라 각국 언어로 동시에 노래할 수 있다.”라고 언급했다.

국내 기업이 기술적 우위를 유지할 수 있는 교두보를 마련하겠다

이교구 수퍼톤 대표이사

한국 애니메이션 캐릭터나 연예인의 목소리로 어떤 외국어든 표현할 수 있어 해외 시장에 적합한 콘텐츠를 생산할 수 있다. 박지원 빅히트 헤드쿼터(HQ) 최고 경영자(CEO)는 “IP와 기술의 단순 융합을 넘어 팬들에게 위로와 감동을 전할 수 있는 디지털 콘텐츠 제작에 힘쓰겠다.”라고 포부를 밝혔다.

서울대 이교구 교수 AI 작곡은 기계학습을 기반으로, 특히 딥러닝이라는 기계학습 알고리즘이 활용되고 있습니다. 인간 작곡가가 수많은 곡을 들어보고 이로부터 일종의 패턴을 찾아내어 자기만의 색깔을 입혀 새로운 곡을 만드는 것과 마찬가지죠. 기계학습 알고리즘에 기존에 만들어진 곡의 일부를, 예를 들어 첫 두마디를 입력으로 주고 그 다음 마디를 출력하라고 훈련하는 방법을 수없이 반복하게 되면 그 상관 관계를 파악하게 됩니다. 훈련이 끝난 후에는 임의의 음표를 입력으로 주고 나머지는 알고리즘이 만들어냅니다.

음악과 같은 창작물은 정량적, 계량적 평가가 거의 불가능하기 때문에 성능이 얼마나 우수한지 알기 어렵습니다. 연주자나 가수, 트렌드, 기획 의도 등 작곡 이외의 매우 다양한 요소들이 평가에 영향을 미치기 때문에 아주 제한적인 평가만이 가능하다고 볼 수 있죠. 아직까지 인공지능은 인간이 주도하는 음악 창작의 보조적 도구입니다. 인공지능이 더욱 발달해 인공지능 스스로 창작을 하게 되면 예술 정의에 변동이 필요하겠네요. 빠른 시간에 수 많은 곡을 만드는 인공지능 덕분에 사람은 더 좋은 곡을 취사선택할 수 있습니다. AI가 작곡하는 동안 잉여시간을 인간만의 창작 작업에 투입해 새롭고 양질의 음악 생산이 가능하게 됩니다. <서울대 이교구 교수>

◆ 딥페이크 음악

딥페이크는 딥러닝(Deep Learning)과 가짜(Fake)를 합친 말. 딥러닝을 이용해 이미지나 동영상 위에 다른 영상을 중첩, 결합하여 원본과는 다른 가공 콘텐츠를 생성하는 기술이다.

딥페이크의 핵심기술은 생성적 적대 신경망(GAN: Generative Adversarial Network). 생성모델과 식별모델이 공존하며 학습을 반복한다. 생성모델과 식별모델은 서로를 적대적 경쟁자로 인식하며 상호 발전 ○ 생성모델이 데이터를 기반으로 훈련 후 가짜 동영상을 만든다. 식별모델은 가짜를 감지하며 다른 모델이 감지할 수 없을 때까지 가짜를 만든다.

지난 4월 오픈 AI에서 딥페이크 기술을 이용해 음악 생성 모델 주크박스를 출시했다. 딥페이크 음악은 AI로 뮤지션 곡을 학습한 뒤, 비슷한 스타일로 곡을 새롭게 만들거나 뮤지션의 목소리를 모방한 노래다. 엘비스 프레슬리, 엘라 피츠제럴드 등 고인이 된 가수는 물론 셀린 디온, 브루노 마스 등 현존 가수 딥페이크 음악도 선보였다.

주크박스 코드는 깃허브에 공개하고 있다. (코드 링크) 일부 개발자는 코드를 이용해 딥페이크 음악을 생성했다. 유튜브 채널 다다봇에서 브리트니 스피어스의 댄스곡 ‘Toxic’을 20세기 대중음악 가수 프랭크 시나트라의 스탠더드 팝 스타일로 바꿨다. (영상 링크) 노래만 프랭크 시나트라 목소리로 부른다.

오픈 AI는 원시 오디오(raw audio) 파일로 주크박스를 훈련시켰다. 원시 오디오는 압축되지 않은 파일 형태다. 주크박스는 변이형 자동 인코더(VAE) 중 다중 스케일(VQ-VAE)를 사용해 오디오의 긴 레코드를 압축했다. 이를 자동 회귀 트랜스포머로 모델링, 음악으로 만든다. 디지털 신호를 아날로그로 복원하는 디코드 과정을 거친다.

주크박스는 음악을 기호화했다는 점에서 의미 있다. 기호화된 음악은 목소리를 포함하지 않는다. 그럴 경우 사람들의 음색, 표현력을 포착할 수 없다. 원시 오디오의 인코딩과 디코딩 과정을 통해 문제점을 보완했다.

사진=셔터스톡

◆ 작곡하는 AI

걸그룹 소녀시대 멤버 태연의 동생 하연이 AI가 작곡한 곡으로 데뷔를 했다. AI 작곡가 이봄(EvoM)이 작곡, 신인가수 하연이 작사해 ‘Eyes on you’를 지난해 10월 발매했다.

AI가 작곡한 곡을 들은 네티즌들은 ‘듣기 편하다.’, ‘이상하지 않았다’ 등의 반응을 보였다. 해외 유명 음반을 마스터링한 Conor Dalton도 ‘올해 들어본 가장 캐치한 음악’이라는 평을 남겼다.

이봄은 한국음악저작권협회에 등록된 유일한 AI 작곡가이며 광주과학기술원(GIST) AI 대학원 안창욱 교수팀이 개발했다.

지난달 에서 이봄과 44년 음악 경력을 가진 김도일 작곡가가 트로트 신곡 대결을 했다. 이봄은 수식화된 음악 이론을 학습해 인간처럼 작곡한다. 대량의 곡을 학습해 작곡하는 기존의 AI 작곡 시스템과 다르다.

이봄이 작곡한 곡을 들은 판정단은 ‘기존 트로트에서 볼 수 없는 세련된 선율’이라며 최신 음악 트렌드를 적극 반영한 점을 주목했다. 하지만 트로트 고유의 정서를 자가 학습으로 구현해내지 못한 한계와 학습 데이터량 부족으로 인간에게 패했다.

한편 해외에는 유럽 스타트업 에이바 테크놀로지가 개발한 AIVA(에이바)가 있다. 2018년 12월 글로벌 영화 제작사 소니픽처츠에서 에이바가 작곡한 곡을 영화 OST로 사용했다. 2019년부터 팝, 재즈 등 여러 스타일의 곡을 3분 내에 작곡 가능하다.

AIVA는 심층신경망(DNN)을 이용해 곡들에서의 패턴들을 분석한다. 현존하는 곡들에서 몇개의 바를 기반으로 트랙 뒤에 어떤 음들이 나오는게 적절할지 추론한다. 그 후 특정 음악 스타일에 따라 수학적 규칙들과 집합을 구성해 작곡한다.

AIVA 개발자 피에르 바로우. (사진=TED)

음악은 각자 선호하는 것이 다른 주관적인 예술. 에이바 컴퍼니 창업자 피에르 바로우(Pierre Barreau)는 곡 분위기, 작곡가의 성향 등을 기준으로 30개가 넘는 카테고리 라벨을 정했다. 라벨링된 데이터를 바탕으로 학습한 AIVA는 인간이 원하는 곡을 작곡할 수 있다.

특별취재팀 정윤아 기자 [email protected]

[관련기사] [관련기사]

인공지능(AI)은 어떻게 ‘음악’을 만들까?

인공지능은 많은 산업의 흐름을 바꿉니다. 음악 산업 역시 인공지능으로 인해 크게 변화했으며, 앞으로 더욱 큰 변화가 일어날 산업입니다. 전통적인 음반 소비가 온라인 스트리밍으로 옮겨가고, 공연장에서 열리던 콘서트는 온라인 콘서트로 대체되고 있습니다. 과거에는 음악을 데이터로 인식하기 어려웠지만, 이제는 단순히 듣고 즐기는 대중문화 콘텐츠가 아닌 하나의 데이터로 인식되면서 이러한 변화는 더욱 가속화되고 있습니다.

최근 인공지능은 미술, 음악, 소설과 같은 예술 영역에 도전하고 있습니다. 수많은 그림을 학습해 인공지능이 그림을 그리기 시작했습니다. 피카소가 그린 느낌의 그림을 인공지능이 그려내고, 많은 책을 학습해 운율이 살아 있는 시를 짓기 시작했습니다. 이제 인공지능은 대량의 음악 데이터를 학습합니다. 피아노를 배우지 않아도 인공지능은 음악을 작곡하고, 청취자의 취향을 분석해 좋아할 음악을 골라냅니다.

l 인공지능이 연주하는 시대 (출처: unsplash)

현재 음악 산업에서 가장 활발히 활용되는 인공지능은 작곡 분야와 음악 추천이 대표적입니다. 인공지능은 과연 어떻게 음악을 공부하고 음악을 만들 수 있는지, 음악 추천은 어떻게 할 수 있는지 알아보겠습니다.

음악과 기술의 만남

음악을 기술과 학문을 통해 만들려는 노력은 1950년대부터 시작됐습니다. 당시에는 통계 모델을 활용해 음악을 작곡하려는 시도가 있었습니다. 전통적인 악기로 만드는 음악은 1960년대 큰 변화를 맞습니다. 1960년대 탄생한 전자악기는 컴퓨터로 음악을 만들고 처리할 수 있는 계기가 됐습니다.

1970년대부터는 다양한 전자 장비, 악기가 등장하고 동시에 음악을 컴퓨터 소프트웨어로 작곡하기 시작했습니다. 1990년대 이르러서는 음악 생성 프로그램이 개발되고 당시 이 프로그램을 이용한 몇몇 앨범이 발매되기도 했습니다.

음악은 오랫동안 인간의 전유물로 여겨져 왔습니다. 그러나 인공지능이 1차, 2차 성장 붐을 겪으면서 인공지능을 음악에 적용하려는 움직임이 더욱 가속화됐습니다. 인공지능이 본격적으로 활용되면서 구글을 비롯한 IT 기업, 대학 등에서 음악과 관련한 인공지능 알고리즘을 개발하기 시작했습니다. 여기서 가장 큰 변화를 끌어낸 인공지능의 분야가 바로 딥러닝(Deep Learning)입니다.

음악에는 음악이 지닌 고유의 특징이 있습니다. 소리의 높낮이나 빠르기 등 다양한 특징이 있고, 연주곡이 아닌 가사가 포함된 음악에는 가사, 즉 텍스트가 고유의 특징이 됩니다. 음악이 지닌 특징을 처리하고 전체적인 가사의 맥락까지 이해하기 위해서는 과거의 단순한 통계와 프로그래밍 수준으로는 불가능합니다.

딥러닝은 기본적으로 인공신경망(ANN, Artificial Neural Network)을 기초로 합니다. 인공신경망은 사람의 신경망 구조를 모방해 만든 알고리즘인데 단점이 있습니다. 복잡하게 구성할수록 컴퓨터가 계산해야 할 연산량이 급격히 늘어나고 이에 따라 학습 시간이 길어집니다. 시간이 오래 걸리고 부하가 발생하니 이를 처리하는 하드웨어에도 많은 부담이 발생합니다.

음악과 순환 신경망(RNN)

그래서 음악 생성을 위해 딥러닝의 한 종류인 순환 신경망(RNN, Recurrent Neural Network)을 사용합니다. 순환 신경망은 딥러닝에 있어 가장 기본적인 시퀀스(Sequence) 모델입니다. 시퀀스는 연속된 순서가 있는 입력을 의미하는데, 음악에는 연속된 음계, 가사가 포함되어 있습니다.

그런데 음악에는 길이가 정해져 있지 않습니다. 어떤 음악은 3분, 어떤 음악은 10분이 넘는 경우가 있습니다. 기존 인공신경망 모델은 가변적인 시퀀스에는 적합하지 않습니다. 순환 신경망은 이러한 시퀀스 데이터를 학습하기 위해 등장했습니다.

l 과거와 연결하는 RNN

순환 신경망은 인공 신경망의 특정 부분이 반복되는 구조로 되어 있습니다. 과거의 데이터로 돌아갈 수 있는 통로를 가지고 있고 과거의 데이터가 미래에 영향을 줍니다. 순환 신경망 내 구조는 마치 쇠사슬처럼 연결되어 연속된 데이터를 학습하고 반복하고 과거의 데이터를 기억한 뒤 반영하기 적합하도록 만들어져 있습니다.

순환 신경망은 마치 ‘기억력’과도 같습니다. 글을 읽을 때 지금 단어뿐만 아니라 앞서 읽었던 단어와 앞으로 나올 단어를 함께 생각할 수 있는데, 앞선 내용으로 현재 내용을 이해하듯이 순차적인 데이터를 연결해 정보를 파악하고 학습할 수 있습니다. 따라서 음악과 같은 연속된 데이터의 구조에 적합하며 음악뿐만 아니라 음성인식, 번역 등에도 활용되고 있습니다.

하지만, 순환 신경망은 데이터의 거리가 멀어질수록 데이터를 연결하는 능력이 없어집니다. 컴퓨터도 기억하려면 많은 메모리, 컴퓨팅 파워가 필요합니다. 앞에서 읽은 데이터를 뒤에서 기억할 수 없는 경우가 생깁니다.

이 문제를 해결하기 위해 LSTM(Long Short-Term Memory)이라는 딥러닝 프레임워크가 고안되었습니다. 꼭 필요한 정보를 잊어버릴지 보존할지, 중요한지 등을 결정하고 저장해 활용합니다. LSTM은 음악 생성, 작곡처럼 오랜 시간 정보를 기억해야 하는 문제를 해결하는 데 사용됩니다.

계속 발전하는 음악 인공지능

이러한 딥러닝 방식을 가장 잘 활용한 대표적인 음악 인공지능이 오픈에이아이(OpenAI)의 뮤즈넷(MuseNet)과 주크박스(Jukebox)입니다. OpenAI는 2015년 테슬라 창업자 일론 머스크, 전 Y컴비네이터 회장 샘 알트맨 등이 설립한 인공지능 연구기관입니다. 마이크로소프트가 10억 달러를 투자했을 정도로 OpenAI는 인공지능 개발의 중심에 있습니다.

OpenAI는 2019년 뮤즈넷을 공개했는데, 10개 악기를 사용해 음악을 만들어 냅니다. OpenAI는 어텐션(Attention) 기법을 활용한 트랜스포머(Transformer) 모델을 사용했습니다. 어텐션은 중요한 정보 위주로 기억하는 개념입니다. 데이터 간 유사성을 파악하고 중요한 정보인지 확인하고 이를 활용합니다. 이는 순환 신경망에서 컴퓨터가 할 일을 크게 줄여줍니다.

OpenAI는 이러한 모델을 활용해 음을 몇 개 입력하면 알아서 다음 음을 만들어내는 음악 인공지능을 만들었습니다. 뮤즈넷은 음악 산업에서 가장 대표적으로 사용되는 미디(MIDI, Musical Instrument Digital Interface) 데이터를 기반으로 음악을 생성했습니다. 미디는 컴퓨터가 활용하기 용이한 형태로 데이터가 저장되어 있습니다.

OpenAI가 올해 5월 공개한 주크박스는 오디오 사운드 자체를 활용합니다. 오디오 사운드는 파형을 지니고 있는데 이 파형을 인코더를 통해 코드로 만들고 트랜스포머에 입력해 음악을 생성합니다. 그리고 디코더를 사용해 다시 오디오 사운드로 변환합니다.

이러한 과정에서 어텐션 기법이 사용되지 않는 생성적 대립 신경망(GAN, Generative Adversarial Network)과 변이형 오토 인코더(VAE, Variational Autoencoders) 등을 활용해 노래나 가수의 목소리를 다양하게 변형할 수 있습니다. OpenAI의 연구 개발 사례를 보면 각 인공지능 알고리즘마다 차이가 있지만, 순환 신경망과 GAN 등 여러 인공지능 기술이 음악 생성에 활용되고 있음을 알 수 있습니다.

l 오픈에이아이 주크박스 (출처: OpenAI)

아마존은 딥컴포저(Amazon DeepComposer)라는 인공지능 음악 생성 프로그램을 공개했습니다. 아마존은 GAN을 활용해 생성자와 식별자가 지속해서 데이터를 주고받으면서 목표한 음악을 만들어 내는 데 중점을 두고 있습니다.

물론 OpenAI의 주크박스나 아마존의 딥컴포저 등이 만들어낸 음악은 아직 인간이 만든 음악과는 구분이 되는 편이고 음악이 기존 음악보다 뛰어나다고 볼 수는 없습니다. 하지만, 시간이 지나면서 점차 많은 음악 관련 데이터를 학습하고 컴퓨팅과 하드웨어의 발전 등이 동반되면 인공지능이 어떠한 음악을 만들어 낼 수 있을지 가늠하기 어렵습니다.

최고의 음악을 고르는 인공지능

음악을 만드는 것보다 가장 우리에게 친숙하게 활용되는 인공지능은 음악 추천 분야입니다. 전 세계 대부분의 음악 스트리밍 서비스는 인공지능 기반 음악 추천을 내세우고 있으며, 사용자 개인 데이터를 기반으로 개인화 추천이 가능하다고 이야기합니다. 사용자 개인의 음악 감상 이력과 비슷한 사용자의 음악 재생 이력, 음원 간 유사성을 분석하는 기술 등을 통해 인공지능 기반 추천이 가능합니다.

거의 모든 음악 추천은 협업 필터링(Collaborative Filtering)과 콘텐츠 기반 필터링(Content Based Filtering) 알고리즘을 주로 사용합니다. 협업 필터링은 인공지능이 사용자에게 음악을 추천할 때, 다른 사용자의 정보를 활용해 사용자가 듣지 않았던 음악을 추천합니다. 다른 사람이 들은 음악을 바탕으로 비슷한 음악을 알아내 추천하는 방식입니다.

다만 이러한 방식은 다양한 장르의 선곡이 어려워 비슷한 음악 장르만 추천하거나 특정 취향으로 쏠릴 수 있는 단점이 존재합니다. 이러한 단점을 보완하기 위해 인기차트만 듣는 사용자의 이력은 학습에서 제외하거나, 인기곡 편중 이슈를 보정하기 위한 학습 데이터를 별도로 생성해 입력 데이터로 활용하는 방법도 있습니다.

콘텐츠 기반 필터링의 경우 음악 자체의 특성을 기반으로 추천하는 방법입니다. 음악 자체 정보를 추출하기 위해 딥러닝이 활용됩니다. 음악 신호를 ‘그림’ 형태로 변환하는 과정이 먼저 진행됩니다. 그림으로 만든 음원 신호를 분석해 음악 간 유사도나 특성을 파악해 비슷한 음악을 추천합니다. 인기 차트만 듣는 사용자들의 청취 이력은 제외하고 AI 딥 러닝을 통해 추천의 정확도를 높입니다.

l 음악 분류, 멜 스펙트럼

이러한 알고리즘을 통한 추천과 더불어 인공지능은 음악의 장르와 무드, 가수 별 특성, 사용자가 음악에 남긴 해시태그 등의 데이터를 토대로 음악을 분류하고 학습합니다. 음악 자체의 오디오 특성과 더불어 다른 음악과의 유사도, 해시태그 유사도, 사용자의 청취 행동 유사도 등 다양한 데이터와 특징이 음악 추천에 활용되고, 이 과정에 인공지능을 활용합니다.

음성 합성으로 완성될 음악 인공지능

과연 인공지능은 음악을 이해하고 음악을 만드는 인간의 감성과 특성을 그대로 따라 할 수 있을까요? 인공지능이 만든 음악이 음악 차트 1위를 차지하고 더는 작곡가나 음반 제작사가 존재하지 않는 시대가 찾아올 가능성을 이제는 배제할 수 없을 것으로 보입니다.

일부 사람들은 인공지능이 인간의 감정과 창작성을 배제하고 음악을 만들고 추천하기 때문에 음악 산업에 부정적인 영향을 줄 수 있다고 걱정합니다. 또한, 인공지능이 만든 음악이 인간의 만든 음악 수준과 비슷하거나 이를 넘어서면 인간 창작자가 설자리가 없어질 것이라고 우려하기도 합니다.

하지만, 인공지능은 엔터테인먼트 기획사나 음반 제작 레이블이 하는 일을 대체할 수는 없습니다. 음악 산업에서 인간만이 할 수 있는 영역이 존재합니다. 인공지능은 인간의 영역을 침범하는 것보다 음악 작업을 더욱 효율적으로 할 수 있도록 인간을 돕는 역할이 핵심입니다. 이미 인공지능은 각종 전자 장비와 프로그램에서 생성된 데이터로 창작자의 수고를 크게 덜어주고 있습니다.

인간은 인공지능을 활용해 음악을 만들고 음악 관련 데이터를 분석해 대중이 원하는 음악과 트렌드를 빠르게 찾을 수 있습니다. 창작자는 음악을 만드는 과정에서 인공지능의 도움으로 새로운 창작 아이디어를 얻을 수도 있습니다. 심지어 인공지능과 함께 작업해 음악을 만들 수도 있습니다.

사실 인공지능이 음악 산업에 불러온 가장 큰 변화는 작곡가, 연주가, 가수 등으로 이루어진 산업 구조의 장벽을 허물어 버렸다는 점에 있습니다. 인공지능의 발전은 음악의 대중화와 더 많은 사람의 폭넓은 참여를 끌어내는 계기가 됐습니다. 이제는 음악 전문가가 아니어도 누구나 인공지능을 활용해 음악을 만들어낼 수 있습니다. 앞으로 인공지능이 음악 산업에서 만들어갈 많은 변화가 기대됩니다.

글 l 윤준탁 l IT 저널리스트

* 해당 콘텐츠는 저작권법에 의해 보호받는 저작물로 LG CNS 블로그에 저작권이 있습니다.

* 해당 콘텐츠는 사전 동의없이 2차 가공 및 영리적인 이용을 금하고 있습니다.

AI가 ‘나만의 곡’을 5분만에 뚝딱…네이버가 먼저 알아봤다 [긱스]

금리가 가파르게 오르는 시기다. 신용등급이 높지 않은 사람들은 대출 문턱도 높다. 대형 은행 등 제1금융권에 가면 대출이 거의 안 되고, 저축은행을 찾으면 연 20% 가까이 이자를 내야 한다. 김성준 렌딧 대표가 중금리 대출 시장에 뛰어든 계기도 자신의 ‘대출 좌절’ 경험에서 비롯된 것이었다. 한때 미국 실리콘밸리에서 유망 스타트업을 운영했던 그가 한국에서 P2P(개인 간 거래) 대출 서비스를 내놓게 된 스토리를 한경 긱스(Geeks)가 들어봤다. P2P 금융 서비스로 익숙한 온라인투자연계금융업(온투업) 1호 스타트업인 렌딧의 김성준 대표. 그는 창업에 큰 영향을 줬던 인연으로 스티브 블랭크 전 스탠퍼드대 교수를 꼽는다. 블랭크는 스스로 연쇄 창업가이자 ‘린 스타트업’ 이론의 토대를 구축한 인물이다. 국내에서《린 스타트업》이라는 책으로 유명한 에릭 리스의 스승이다. (*린 스타트업은 기사 맨 아래 추가 설명이 있다.)”스탠퍼드 대학원 시절 블랭크 교수님이 하신 ‘린 런치패드’라는 창업 관련 수업이 있었습니다. 학생이 40명인데 멘토도 40명 들어와요. 학생 4명씩 팀을 짜서 10팀 정도로 구성되는데 팀마다 멘토가 4명씩 붙는 거죠. 우리로 따지면 김택진(엔씨소프트 창업자) 같은 분들이 멘토로 들어옵니다. 그 수업에서 저의 두 번째 창업인 ‘스타일세즈’가 시작된 거죠.” ‘린 스타트업’ 창시자 수업 들으며 창업 도전김 대표가 이 수업을 듣게 된 과정도 순탄치 않았다. 학생들은 수강 신청을 할 때부터 어떤 문제를 해결할지 프로젝트 제안서를 내야 한다. 그 제안서를 평가해 수강생을 결정하는 방식이다. 김 대표는 ‘그루폰’ 같은 공동 구매 커머스 플랫폼의 대안을 제시했지만 수강 신청에 실패했다. 블랭크 교수를 찾아가 따졌지만 “공동 구매 모델은 이미 너무 많이 다뤄졌다”며 매몰차게 거절했다. 그러면서 블랭크는 한마디 덧붙였다. “나중에 자네의 자서전에 ‘스티브(블랭크의 이름), 당신이 그때 완전히 틀렸다는 것을 내가 증명해냈어’라고 적힌 문구가 나오길 기대하겠네. 오랫동안 실리콘밸리에 있었지만 나 역시 자주 틀릴 수 있다는 것을 알려준 학생들이 있었지. 나는 자네처럼 창업가 마인드를 갖춘 학생들이 정말 좋네.”이 말을 들은 김 대표는 거절당했다는 좌절감보다는 더욱 의지가 솟았다고 했다. “실리콘밸리의 전설적 창업가 교수님의 진심 어린 말씀이어서 더 각인됐던 거 같습니다. 20대 중반까지 한국에서 교육받고 일해왔던 저에게는 문화적 충격이었습니다.” 김 대표는 포기하지 않았다. 두 번째 수업 전에 공동 교수였던 앤 미우라-고를 찾아가 다시 설득했고, 블랭크도 또 한 번 찾아갔다. 결국 ‘끈질김’에 두 손을 든 교수님들의 허락에 린 런치패드 수업을 들을 수 있었다. 수업을 통해 창업한 패션 커머스 플랫폼 스타일세즈는 창업 초기 꽤 잘나갔다. 김 대표는 대학원 2년 과정 중에 1년이 남아있었지만 결국 자퇴를 결심하고 사업에 몰두했다. 사진 기반 소셜미디어 핀터레스트를 통해 홍보를 강화하자 가입자도 크게 늘었다. “어느 날 실리콘밸리에서 가장 유명한 투자사 앤드리슨호로위츠에서 연락이 온 거예요. 앤드리슨호로위츠는 핀터레스트 투자사이기도 했죠. 저희에게 흥미로운 모델이라며 핀터레스트에 합류하면 어떻겠느냐고 제안하더군요. 그런데 제가 인수 제안을 거절했습니다. 당시 핀터레스트는 그냥 예쁜 이미지를 모아둔 플랫폼이란 느낌이었고, 우리가 더 성장할 수 있다는 믿음이 있었습니다.”스타일세즈는 이용자들이 빠르게 늘었지만 미국 특유의 ‘물류 시스템’을 이해하지 못한 서비스였다. 미국은 배송료도 비쌀 뿐만 아니라 거리에 따라 배송되기까지 일주일 이상 걸리기도 했다. 구매 한 달 이내에는 무조건 반품을 보장해야 하는 것도 걸림돌이었다. 작은 규모로 시작했을 때는 괜찮았지만 서비스를 확장하면서 늦은 배송과 반품 문제 등에 고객 불만도 늘어갔다. 스타일세즈는 서비스 개시 3년가량을 지나면서 매출이 하향 곡선을 그리기 시작했다. 같이 일하던 팀원들도 떠났다. “다시 시작해야겠다는 생각을 했어요. 대략 3000만원 정도면 미국에서 라면 먹고 살면서 4~5개월 정도는 새로운 아이디어를 실험해볼 수 있겠다는 생각이었죠. 미국에서는 사업 자금을 위한 대출이 어려울 거라 생각하고 2014년 12월 한국에 잠깐 왔죠.” 은행 대출 거부당하고 중금리 시장 개척김 대표는 먼저 3000만원을 빌리기 위해 제1금융권을 찾았다. 하지만 번번이 대출을 거절당했다. 할 수 없이 저축은행으로 발길을 올렸다. 그런데 저축은행도 3000만원을 다 빌려줄 수는 없고, 절반인 1500만원까지 대출해주는데 금리가 연 22%라고 했다. 제1금융권 대출 금리가 연 4~5% 정도였던 때다. 좌절하던 김 대표는 우연히 미국의 렌딩클럽 상장 소식을 듣고 지푸라기라도 잡는 심정에 앱을 깔아봤다.”정말 신기하게도 다다음 날이 렌딩클럽 상장일이었어요. 저축은행에서 충격받고 나서 서울에서 렌딩클럽 앱을 내려받아 대출을 시도해봤죠. 대출 3만달러 정도 알아봤는데 이자가 연 7.8%로 나오는 거예요. 이게 무슨 일인가 싶었죠. 미국에서 그리 오래 생활하지도 않은 외국인에게 3만달러를 이 정도 금리에 빌려준다는 게 놀랄 만한 일이었어요.”김 대표는 렌딩클럽이라는 회사가 이 문제를 어떻게 해결하고 있는지, 이 금융 서비스가 얼마나 클 수 있을지 연구했다. 한국 시장이 놓치고 있는 중금리 대출 서비스의 가능성이 충분하다고 판단했다. 결국 급하게 미국으로 돌아가 5년 정도 생활하며 쌓인 짐을 다 욱여넣고 창고에 맡겼다. 지체할 시간이 없었다.그렇게 그는 2015년 초 P2P 대출 서비스업체 렌딧을 창업했다. 자신의 좌절 경험과 함께 ‘왜 한국에는 제1금융권과 제2금융권 사이에 중간 금리로 돈을 빌려주는 곳이 없을까’라는 의문이 결합한 창업이었다. 그로부터 6년이 지난 작년 6월 국내에서도 온투법(온라인 투자 연계 금융업 및 이용자 보호에 관한 법률)이 발효되면서 렌딧은 날개를 폈다. ‘2021-1’이라는 등록번호가 말해주듯 렌딧은 국내 온투업 1호 업체가 됐고, 개인 신용대출 1위 회사로 우뚝 섰다.개인 투자자들이 십시일반 모은 돈을 온라인으로 빌려주는 P2P 대출. 이제 많은 사람에게 낯설지 않은 서비스가 됐다. 신용등급이 은행 기준에 못 미친다는 이유로 제2·제3금융권의 고금리 대출로 내몰리는 이들에게 새로운 대출 창구로 떠올랐고, 투자자들에겐 쏠쏠한 수익을 안겨주는 투자처로도 인기를 누리고 있다.이제는 P2P보다는 온투업이라고 표현하는 게 정확하다. 온투업법 발효 등으로 단순히 개인 간 거래를 넘어 법인들도 시장에 참여하고 있기 때문이다. 온투업체들은 개인 또는 법인에서 투자금을 받아 개인이나 기업에 대출을 해준다. 은행과 달리 예금은 받을 수 없기 때문에 투자받은 만큼만 대출해준다. 따라서 투자 총액이 곧 대출 총액이다.온투업법이 발효된 이후 지금까지 약 50개사가 온투업체로 등록됐다. P2P 사업 초기에 수백 개에 이르는 스타트업이 뛰어들었던 것에 비하면 ‘우량 업체’와 ‘부실 업체’의 옥석이 가려지는 분위기다. 온투업 1호 ‘렌딧’ 누적 대출 2700억원렌딧은 2015년 5월 서비스를 시작한 이후 지금까지 누적 대출액 2700억원에 이른다. 인공지능(AI)을 이용해 정교하게 신용등급을 평가하는 ‘렌딧 스코어'(LSS)라는 자체 평가 기준을 개발했다. LSS는 한국신용정보원과 신용정보업체 나이스신용평가에서 받은 300여 가지 자료를 바탕으로 개인 신용도를 1000점 만점으로 점수화한 지표다.대출 신청자의 월 소득, 부채 정보, 신용카드 사용액, 통신비와 공과금 연체 여부, 거주 지역의 전셋값, 매맷값 변동 추이 등을 AI로 분석한다. 예컨대 소득액이나 소비액이 들쭉날쭉하면 위험도가 올라가는 구조다.LSS 점수를 기준으로 대출자의 신용을 평가해서 금리를 차등 적용한다. 연 4.5~19.9%까지 적용되고, 평균 적용 금리는 10%대 초반이다. 저축은행 금리가 최고 20%, 신용카드 대출이 15% 정도이니 상대적으로 낮은 편이다. 김 대표는 “아직도 너무 많은 사람이 신용에 비해 과도한 이자를 부담하고 있다”며 “렌딧의 대출 규모가 1조원대로 성장한다면 한국 금융시장에 큰 변화가 일어날 것”이라고 말했다.렌딧에 투자금을 넣은 개인 또는 법인의 투자 수익률은 얼마나 될까. 김 대표는 “평균 투자 수익률이 연 7% 정도”라고 설명했다. 렌딧은 다른 온투업체와 달리 철저히 개인 신용대출에 집중하고 있다. 리스크(위험) 관리가 쉽지 않은 법인이나 부동산 프로젝트파이낸싱(PF) 대출은 검토하지 않고 있다고 했다. 김 대표는 “우리가 압도적인 기술력을 발휘할 수 있는 분야는 신용평가 모델을 바탕으로 한 비대면 대출”이라며 “법인이나 부동산 대출은 직접 가서 현장을 확인해야 하는 데다 기존 금융사들이 더 잘한다”고 말했다.렌딧은 중간 정도의 신용도를 가진 대출자를 집중 공략한다. 대출 실적이 쌓일수록 신용평가 모델을 정교하게 다듬고 있어 리스크를 충분히 통제할 수 있다는 것이다. 김 대표는 “신용도가 낮은 고객을 늘리고 있는데도 렌딧의 손실률은 2%대 초반을 유지하고 있다”고 설명했다.김 대표는 렌딧의 정체성은 ‘핀테크(금융기술)’가 아니라 ‘테크핀(기술금융)’ 기업이라고 말한다. 핀테크는 금융회사가 소비자 편의를 높이는 수단으로 기술을 접목한 것이라면, 테크핀은 기술을 기반으로 금융을 혁신한다는 뜻을 강조하는 개념이다.그는 “미국도 과거에는 은행 아니면 카드론이었지만 P2P 대출이 전체 개인 신용대출 시장의 10% 수준까지 늘었다”며 “한국은 P2P 대출 비중이 아직 1%도 되지 않아 성장 잠재력이 크다”고 강조했다. “큰돈보다는 사회 문제 해결하고 싶다” 김 대표는 서울과학고를 2년 만에 조기 졸업하고 KAIST에서 산업디자인을 전공했다. 그는 스탠퍼드 대학원으로 유학 가기 전 한국에서 사회적 기업 ‘2분의 1 프로젝트’도 세웠다. 스타트업 세이브앤코를 이끄는 박지원 대표와 대학 시절에 공동 창업했다.”시작은 너무 더운 어느 여름날 사서 마신 500㎖짜리 콜라 한 병이었어요. 그때 저는 콜라 양이 너무 많아 지하철을 타기 전에 남은 콜라를 버렸어요. 그런데 그날 유튜브에서 아프리카의 한 아이가 물이 없어서 소의 소변을 받아먹는 장면을 본 겁니다. 통계적으로 보면 세계 인구의 51%가 의식주에 소비하는 일평균 금액이 2달러 이하라고 했고요. 제가 사 먹은 콜라가 2000원 정도였던 게 떠올랐고, 그걸 다 먹지 않고 버린 데서 자괴감을 느꼈습니다.”김 대표는 충격을 받고 이런 기아 문제를 해결할 방법을 고민했다. 그러다 무엇이든 반만 담아서 파는 아이디어를 떠올렸다. 2000원을 주고 물을 사면 1000원에 해당하는 절반의 물만 통 속에 들어 있다. 소비자가 낸 나머지 1000원은 기부되는 시스템이다. 이를 통해 사회적으로 선한 영향력을 널리 퍼뜨릴 수 있겠다 싶어 창업에 뛰어들었다.큰 기대를 안고 시작했던 첫 번째 양산 제품은 초콜릿이었다. 초콜릿을 팔아서 절반에 해당하는 가치만큼을 당시 발생했던 아이티 재난 관련 구호단체에 기부하는 프로젝트였다. 하지만 대학생이던 김 대표 등 공동창업자들이 감당하기에는 비용 부담이 너무 컸다. 좀 더 큰 프로젝트인 ‘절반 저금통’이나 ‘절반 물통’ 역시 단위가 커지면서 많은 사비가 들었다. 결국 사업을 지속하기 힘들었고 첫 번째 실패를 맛봤다. 이후 실리콘밸리에서 겪은 두 번째 실패가 스타일세즈다. 김 대표는 세 번째 창업인 렌딧을 통해 한국의 고금리 대출 문제를 해결할 수 있다고 생각한다. “우리나라의 신용 대출 규모가 400조원가량 됩니다. 이 가운데 40% 정도가 10% 이상 고금리인 제2금융권에서 빌리는 것이죠. 주로 서민들인데 이자를 조금만 낮춰도 큰 도움이 될 것입니다. 렌딧이 1조원가량을 대출해 주면 15만 명이 총 700억원의 이자를 절약할 수 있을 것입니다. 앞으로 3~4년 뒤면 가능한 일이라 생각합니다.”(*아래 동영상 촬영·진행 도움=이미나 렌딧 이사)1.렌딧은 어떤 서비스를 통해 고객에게 가치를 주고 있는가.2.’렌딧 임팩트’에 대해 좀 더 자세히 설명해 주세요. 참, 한가지 더린 스타트업이란?일본 도요타자동차의 ‘린 제조(lean manufacturing)’ 방식을 차용한 것으로, 스티브 블랭크 교수의 제자였던 벤처 기업가 에릭 리스가 만든 말이다. 아이디어를 빠르게 시제품으로 일단 만들어낸 뒤 내놓아 시장의 반응을 보면서 다음 제품 개선에 반영하는 전략이다. 짧은 시간 동안 제품을 만들고 성과를 측정해 다음 제품을 개선하는 과정을 반복하면서 성공 확률을 높이는 방식이다. 몸집이 가벼운 스타트업 생리에 맞는 경영 전략이다. 드롭박스, 에어비앤비 등 실리콘밸리 주요 스타트업들이 이런 방식을 활용해 성장했다.안정락 기자 [email protected]

가까이 온 인공지능(AI) 음악

영국 중앙은행은 2021년부터 사용하는 최고액권인 50파운드 지폐의 인물로 인공 지능의 아버지 <앨런 튜링(Alan Mathison Turing. 1912~1954. 수학자, 컴퓨터과학자)>을 선정했다. 그는 1936년에 컴퓨터의 토대가 될 <보편적 튜링 기계, Universal Turing Machine)>를 발명했다. 1950년에는 ‘기계를 학습시킬 수 있다’는 강화 학습의 개념을 창안했으며, 1951년 컴퓨터가 작곡한 동요 를 세상에 처음으로 알렸다. 한편 나치 암호 <에니그마> 해독기를 개발, 2차 대전 시 독일 잠수함 격파와 종전을 앞당긴 전쟁 영웅이었다. 그러나 동성애자임이 우연히 드러나면서 당시 영국법 판결에 의해 화학적 거세 판결을 받고 자살한 비운의 컴퓨터 천재이다. 그의 이름을 딴 <튜링 테스트>는 지금도 인공지능인지 아닌지를 판별하는 대표적 테스트 이다.

1957년 미국 일리노이대학의 작곡하는 컴퓨터 <일리악>이 AI 음악을 처음 작곡한다. 1960년엔 러시아 연구자 자리포프(R.Kh. Zaripov )가 작곡 알고리즘 연구 결과를 처음으로 발표했으며 그 후 1970년대에 인공신경망(Artificial Neural Networks)이 음악 작곡 분석을 위해 사용되면서 AI 음악의 중요한 개발 도구가 되었다. 1973년 MIT 뮤직 스튜디오는 컴퓨터를 이용해 실시간 작곡이 가능한 AI 기술을 개발했다. 1980년엔 캘리포니아대의 EMI가 특정 장르별로 작곡이 가능한 음악 분석 시스템을 개발했지만 1990년대까지는 AI 음악의 명맥을 유지하는데 그쳤다. 90년대부터 AI 기술의 한계와 학계 및 산업계의 외면으로 AI 기술 연구와 AI 음악은 동면에 들어갔다.

2010년 AI에 관한 ‘딥 러닝’ 논문이 발표되면서 음악계도 인공지능 음악 연구성과가 나오기 시작했다. 2010년 스페인의 비코 교수가 개발한 최초의 클래식 전문 AI 음악 기계 <이야무스 오퍼스원(Iamus Opus One)>이 2014년 를 작곡, 이를 런던 심포니가 AI 작곡임을 감춘채 블라인드 연주 테스트를 했다. 이 때 어느 음악평론가는 ‘ 듣기 좋은 현대음악’이라고 평가했으며 기계가 만든 음악임을 알아낸 음악인은 없었다. ’이야무스‘ 는 컴퓨터로 각 각의 음악 테마들을 하나의 유전자로 인코드 하고, 이렇게 인코드 된 모든 음악 테마들을 유전자 진화과정을 거치게 한다. 한번 프로그램되면 사람의 간섭 없이 작곡을 끝내며, 진화시킨 수많은 작품들 중에 원하는 음악을 고르기만 하면 되게끔 만들어졌다. 이어서 2015년 예일대에서 AI 작곡 알고리즘 <쿨리타>를 개발했고, <쿨리타>가 작곡한 곡을 현악 4중주로 100명에게 들려준 결과, 인간 작곡과 구분이 안된다란 평가를 받았다. 비슷한 시기에 IBM의 <왓슨 비트>, 구글의 <텐서플로와 엔신스>, MS의 <송스 미스>, 소니의 <플로우 머신>, <엠퍼 뮤직>, <아이바>, 이 등장했으며 한국의 <이봄>도 2017년 작곡 AI를 개발했다. 이들 AI 음악 기계들은 3분짜리 곡을 수 초~3분 이내에 작곡한다. 가장 널리 알려진 AI 음악은 2017년 미국 아이돌 스타 <타린 서든>과 공동 작곡한 인데 이 곡의 뮤직 비디오가 약 230만 회 조회됐다. 이처럼 AI음악은 게임, 유튜브, 팟 캐스트, SNS 등의 배경음악에 쓰이는데, 그 이유는 저작권 회피가 가능하며 작곡 원가, 제작 시간에서 인간 작곡가를 추월하기 때문이다. 그 반면 배경음악 작곡가들은 일거리를 줄므로 음악계는 AI 음악을 마냥 환영할 수도 없다. 이제 AI음악은 작곡, 연주, 공연, 음악교육 등 음악시장 전 분야에서 음악인들의 설 자리를 서서히 좁혀오고 있다.

사람들은 청각 예술 음악은 창의성, 감성 측면에서 인간 고유의 영역으로 남아 있길 바란다. 그렇지만 AI 연구자들은 모든 분야에서 인간의 영역을 넘어서기 위해 치열한 도전을 하고 있어서 인간 음악의 미래는 알 수 없다. 도이치텔레콤이 지원하고 하버드대 로버트 레빈 등 국제적 음악학자와 AI 전문가들로 구성된 프로젝트팀이 베토벤의 미완성 교향곡 10번을 완성하기 위해 ‘베토벤-AI 시스템’을 개발했다. 이 팀은 2021년 초까지 베토벤 음악 스타일과 가장 근접하게 10번 교향곡을 완성, 2021. 4월 일본에서 초연할 예정이

지만 코로나로 인해 공연이 연기되었다. 이 프로젝트는 음악 전문가들이 도우므로 AI가 100% 작곡한 음악은 아니다. 어쨌든 음악인들의 도움을 받아 베토벤 10번 미완성 교향곡을 AI가 완성하고 성공적 초연을 한다면 과연 음악인들과 클래식 애호가들은 AI의 창의성과 예술성을 인정할까?

AI 음악의 미래에 관해 <아이바>의 창업자인 <피에르 바로유>는, ‘ 작곡가들이 영감을 얻고 창작 과정을 극대화할 수 있는 도구로써 AI를 활용할 수 있을 것으로 기대하며, 개인마다 다른 음악적 취향에 맞추어 인간 작곡가들이 다양한 음악을 만드는 데 기여할 것 ’이라고 말했다. 그렇지만 현실적으로는 일자리 문제가

있다. 옥스퍼드대 연구 보고서가 AI로 인한 실업문제를 연구한 결과, 음악가가 하는 일이 자동화될 가능성은 타 산업보다 낮은 7.4%에 불과하다고 발표하였다. 그 보고서와는 달리 현실 음악세계는 게임, 영화, 유튜브, 그 외 각종 콘텐츠 분야에서 AI 음악이 이미 인간 작곡가의 배경 음악을 대체하고 있다. 콘텐츠 분야에서부터 인간 음악가들의 일자리는 AI로 대체되고 있다.

그렇다면 인간 음악가들은 어떻게 대응해야 하나? 유명 작곡가들은 AI 작곡가에게 작곡을 의뢰하여 자신의 영감에 맞춰 빠르게 작곡을 시키고, 창의성과 감정을 풍성하게 불어넣어 작곡 수를 늘리는 것이 수입도 늘고 일자리를 지키는 방법이 될 수 있을까? 평범한 작곡가들은 일자리를 잃지 않을까? 한편으로는 사람이 직접 연주하는 콘서트나 아날로그식 순회공연을 하거나 AI 음악 기계와 공동 제작하며 협력하는 방식을 찾는 음악가도 나오지 않을까? 국내 순수 음악가 몇 분은 근본적으로 AI 음악은 인간 목소리와 어쿠스틱 악기가 주는 감동을 대신할 수는 없다고 주장한다. 음악은 인간의 고유 영역으로 남아있어야 하는데 AI는 감정표현과 감정교류가 불가능하므로 AI 음악이 싫다 고 한다. AI 때문에 음악가의 일자리가 없어질 수도 있다는

불안 이 있지 않을까 . 한편 일부 음악가들은 AI 음악이 확산된다면 AI 음악과 공존하는 방법을 찾아야 하지 않겠느냐는 생각을 알려 왔다.

AI 음악은 저작권과 저작 인접권 문제를 일으킨다. 더욱이 각국마다 다른 법률 때문에 분쟁해결이 쉽지 않다. 가수의 목소리 재생은 현재도 저작권 분쟁을 일으키고 있다. 누군가가 <딥 페이크>를 이용하여 <프랭크 시나트라>의 목소리로 , 등의 노래를 유튜브에 올렸고, 재미있다는 반응과 비난을 받았다. 비슷한 일을 겪은 어떤 힙합 뮤지션은 <딥 페이크>의 노래가 ‘불법’ 이라며 작년 초에 소송을 제기한 상태이다. AI 기술 발전 속도가 얼마나 빠를지도 중요하다. 머신 러닝, 딥 러닝, 인공 신경망(ANN, Artificial Neural Net work) 등의 개념을 실제 구현한 시기는 AI 가속기라는 <인공신경망 칩셋 (Deep Learning Chip Set) >이 개발된 2010년 이후다. 현재는 인공 지능 훈련(학습)과 추론(실행)을 모두 할 수 있는 GP-GPU(General-Purpose computing on GPU) 기반의 AI 가속기(NVIDIA가 90% 점유)가 대부분인데 ‘1초에 1조 번 조회, 병렬 연산’이 가능해서 수개월 걸리던 대형 신경망 네트워크 교육을 불과 며칠로 줄일 수 있다. AI 가속기 개발기업들은 연산 속도가 지금보다 20배 빠른 AI 가속기를 개발, 빠른 제품은 이미 시장에 나오고 있다. AI 음악 연구개발자들이 새 AI 가속기를 활용하여 현재의 기술을 와해 할 만한 S/W를 개발하고 있을지도 모른다. AI 분야에서 와해 기술이 나온다면 음악은 물론 전 산업에 미칠 파급이 엄청날 것이다. 언젠가는 인간 음악가의 일자리를 대량으로 위협하지 않을까.

AI 기술의 미래에 대해 과학자들의 의견은 상반된다. 2018년 작고한 스티븐 호킹 박사는 2014. 5월 BBC와의 인터뷰에서, “ 초기의 AI 기술이 인간의 삶을 윤택하게 하지만, 인간 지능을 뛰어넘는 완전한 AI가 등장하면 결국 인류를 멸망시킬 수 있다. 인간은 생물학적으로 진화가 제한되거나 진화 속도가 아주 느리지만 AI의 지능은 인간과는 경쟁이 안 될 정도로 빠르게 발전해서 언젠가는 인류를 뛰어넘을 수 있다.”라고 우려했다. 반면, AI 분야 최고 권위자로 꼽히는 UC 버클리대 마이클 조던 교수는 지난해 ‘AI 월드 콘퍼런스’에서 “AI는 인간의 삶의 질 향상의 조력자이며 인간에 위협적인 존재가 될 수 없다”, “우리 생애에 3세 어린이 지능을 뛰어넘는 AI가 나타날 수 없다고 확신한다. 이들을 따라잡는데 최소 100년~ 300년이 걸린다”라고 했다.

AI 음악이 인간 음악가를 넘어설까? AI 미래를 알 수 없지만, AI 기술은 빠르게 진화할 것이다. 그렇지만 음악은 창의, 감성, 관객들과 교감 등 인간만의 고유한 분야도 있으므로 인간이 중심 되고, AI는 음악 분야의 혁신이나 조력자로 남길 바란다. 사람은, 사람이 직접 작곡하고 연주하는 음악을 듣고 싶어 한다. 청각 예술에는 기계가 넘보지 못할, 표현할 수 없는 인간의 섬세한 감정과 감동이 깃들어 있기 때문이다. 음악을 듣는 사람들 또한 그 감정 교류를 통해 위안과 감동과 깨달음을 주고받는 존재이기에 기계 음악보다 인간의 음악을 듣고 싶어 하리라고 위안해 본다.

** 참고 : ‘Soundraw’가 추천한 2021년 <톱 10 AI 음악 작곡사>

Top 10 AI music generators on the market(Year 2021)

1. Amper Music

2. AIVA

3. Ecrett Music

4. Humtap

5. Amadeus Code

6. Computoser

7. Google’s Magenta tools

8. Chrome’s Song Maker

9. fm

10. MuseNet

김광석까지 환생시킨 AI … 음악계 점령할까

음악계 습격하는 AI

지난 11일 세계 최대 IT·가전 전시회 CES 2021의 LG전자 신상품 소개에 나선 연설자는 AI 인간 ‘김래아’였다. CG로 만든 외형에 인공지능 기술을 입혀 목소리를 구현한 23세 여성 캐릭터 인데, 지난해 음원을 발표한 뮤지션이자 팔로워 1만명을 거느린 ‘버추얼 인플루언서’다.

생전 가수 딥러닝, 홀로그램 소환

신해철 AI로 되살린 무대 화제

걸그룹도 AI 아바타와 함께 활동 AI 작곡가, 알고리즘 활용해 다작

창작 도우미로 파괴적 혁신 기대

“독특한 아우라 창조하는 게 숙제”

최근 AI 챗봇 ‘이루다’가 성차별 발언으로 론칭 20일 만에 서비스가 중단되는 해프닝이 있었지만, 2015년 일본 마이크로소프트가 ‘미스터리 여고생’ 캐릭터로 개발한 챗봇 ‘AI 린나’는 현재 가수로 성장했다. 팔로워 700만을 거느린 인플루언서로 활동하다 음성 합성, 가창 합성 기술을 차례로 더해 아이돌 창법으로 노래하는 ‘버추얼 싱어’로 진화한 것이다. 2019년엔 연예기획사 에이벡스와 계약을 맺고, 메이저 방송에서 최초로 ‘인간 vs AI’ 가창 대결을 벌이기도 했다.

4차 산업혁명 시대, 음악계에도 진풍경이 펼쳐지고 있다. 죽은 가수들도 살아났다. 2019년 NHK홍백가합전에서 30년 전 사망한 일본의 국민가수 미소라 히바리가 야마하의 ‘보컬로이드 AI’로 살아나 신곡 ‘아레까라(그로부터)’를 불렀다. 지난 연말 Mnet의 AI 음악프로젝트 ‘다시 한번’은 혼성그룹 거북이의 터틀맨(임성훈), 가객 김현식의 생전 자료를 딥러닝한 AI 홀로그램을 무대로 불러내 팬들을 울렸다. 빅히트 엔터테인먼트도 연말 콘서트에서 신해철을 소환해 BTS 등 소속 가수들과 협업 무대를 펼쳤다. 29일 방송하는 SBS 신년특집 ‘세기의 대결! AI vs 인간’에서도 1996년 세상을 떠난 김광석이 2002년 발표된 김범수의 ‘보고 싶다’를 부른다.

‘AI 음악의 감동’은 딥러닝을 활용한 음성·가창 합성 기술의 급격한 발전으로 가능했다. 가창을 합성하는 신경망과 합성된 음성이 진짜인지 가짜인지 판별하는 신경망이 상호 경쟁하면서 결과물을 개선시켜 가는 ‘생성적 적대 신경망(GAN)’ 기술로 실제 가수의 호흡과 바이브레이션까지 고스란히 담아낸 생생한 목소리가 얻어지는 것이다. 녹음된 음원이 아니라, 이 목소리가 학습을 토대로 전혀 새로운 콘텐트를 구현하기에 실제 부르지 않은 곡도 들을 수 있다.

유명인을 내 일상으로 불러올 수도 있다. 최근 클래식 기획사 크레디아가 내놓은 AI 스피커 서비스 ‘클래식 메이트’는 바이올리니스트 대니 구의 목소리를 빌려 매일 한 곡씩 클래식 음악을 소개하고 있다. SM의 신인 아이돌그룹 에스파는 멤버별로 만든 AI 아바타와 함께 팀을 꾸렸고, 네이버의 증강현실 앱 ‘제페토’에서는 블랙핑크, 트와이스의 AI 아바타와 만날 수 있다. 엔씨소프트가 상반기 글로벌 시장에 출시 예정인 K팝 팬 플랫폼 ‘유니버스’에서는 아이돌의 AI 보이스와 직접 대화를 나눌 수도 있는데, 이미 사전 예약이 200만 건을 돌파했다.

하지만 이런 기술은 목소리 정보만으로 자연스러운 대화를 만들어 내기에 진짜와 가짜의 구분이 모호해지고, 실존 인물의 의지와 무관하게 사용될 가능성도 있다. ‘클래식 메이트’에 음성을 제공한 대니 구는 “처음엔 누가 내 목소리로 욕을 할 수도 있겠다는 걱정이 들었다”면서도 “장기적으로 봤을 때 클래식계가 다양한 시도를 해볼 수 있는 기회를 주는 기술이다. 클래식 매니어보다 훨씬 많은 구글 이용자들에게 클래식을 편안하게 전달할 수 있다는 희망에서 흔쾌히 동참했다”고 밝혔다.

바이브레이션까지 생생 ‘진짜같은 가짜’

‘다시 한번’과 ‘AI vs 인간’에 기술을 제공한 스타트업 수퍼톤을 설립한 이교구 서울대 지능정보융합학과 교수는 “확대되는 버추얼 시장에서 음성 합성 기술로 다양한 사업 모델이 탄생할 수 있다. 예컨대 12개국에서 방영되는 ‘킹덤’ 같은 K드라마도 원래 배우의 목소리를 각 나라 언어로 더빙하는 것이 가능하다”면서 “진짜 같은 가짜를 만들어내는 일이기에 수많은 개인에게 통제를 맡기면 위험할 수 있다. 음원 발매나 영화 제작처럼 완벽히 컨트롤 가능한 사업만 고려하고 있다”고 말했다.

AI는 작곡 분야에서도 화제다. 2016년 탄생한 국내 최초의 AI 작곡가 ‘이봄’은 지난해 5월 남성 듀오 조이어클락의 디지털 싱글 앨범 ‘달 스프’를 선보였고, 10월에는 프로듀서 누보와 협업한 곡 ‘아이즈 온 유’로 소녀시대 태연의 동생 하연을 데뷔시켰다. 해외에서는 ‘아메리칸 아이돌’로 스타덤에 오른 뮤지션 타린 서던이 2018년 AI 작곡가 ‘앰퍼’가 작곡한 앨범 ‘아이 엠 에이 아이(I AM AI)’로 정식 데뷔하기도 했다.

AI 작곡가의 활약은 음악 산업에서 생산 자체의 본질적 변화를 야기한다는 점에서 주목된다. 서양 음악에는 12음정과 24조성이 있고, 리듬·멜로디·하모니를 조합해 다양한 패턴이 생산된다. 베토벤의 ‘영웅’이나 ‘월광’에 피보나치수열과 등비수열이 쓰인 것처럼, 작곡가들은 수학적 패턴을 고심하며 오선지에 음표를 채워간다. 반면 AI 작곡가는 심층 신경망으로 방대한 데이터베이스에 숨겨진 수학적 규칙을 빠르게 찾아내는 알고리즘을 활용해 음악을 신속하게 대량생산할 수 있다.

미국 산타크루즈 캘리포니아 대학의 데이비드 코프 교수가 개발한 AI 작곡가 ‘에밀리 하웰’은 2016년 경기도문화의전당에서 모차르트를 흉내 낸 곡으로 모차르트의 곡과 배틀을 펼치기도 했다.

AI가 작곡한 최초의 팝송은 비틀스풍으로, 2016년 소니의 ‘플로우머신’이 비틀스의 노래 45곡을 학습해 작곡한 ‘대디스 카(Daddy’s Car)’다. 이 곡들은 모차르트와 비틀스 스타일을 충실히 모방해 완결된 구조를 가졌다는 평가를 받았다.

요즘엔 누구나 AI 작곡가의 곡을 받을 수 있다. 아마존 웹서비스(AWS)가 지난해 출시한 ‘딥컴포저’는 PC에 연결하는 키보드로 멜로디를 한 소절 입력하고 장르를 정하면 몇 초 만에 복잡한 편성의 곡을 완성해 준다. 미국 비영리 인공지능 연구기관인 오픈 AI가 지난해 선보인 ‘주크박스’는 미디 파일이 아닌 오디오 사운드 자체로 120만 곡의 데이터를 학습한 인공 신경망이 엘비스 프레슬리 목소리로 듣는 로큰롤, 소녀시대가 부르는 듯한 K팝까지 만들어낸다.

AI가 만든 음악은 1인 미디어 시대를 맞아 배경음악(BGM)으로 급부상했다. 현행법상 AI 생성물은 저작권 보호를 받지 않기 때문이다. 실제로 중국의 숏폼 동영상 플랫폼 ‘틱톡’은 이용자들의 BGM 수요를 충족하기 위해 영국의 AI 작곡 스타트업 쥬크덱을 인수했다. 영국의 ‘에이바’, 일본의 ‘사운드로’ 등 일반인 유료 이용자를 대상으로 하는 구독 서비스도 저작권 걱정 없는 음원을 만들어 준다.

“AI 덕에 음악 생태계 소비 풍성해질 것”

주목할 점은 AI가 엄청난 속도로 다작을 한다는 점이다. 이용자가 버튼 몇 개만 누르면 30초 안에 3분짜리 곡이 만들어지니 이론상 하나의 단말이 하루에 수천 곡을 쏟아낼 수 있다. ‘이봄’도 지난 1년간 클래식·EDM·뉴에이지·엠비언트·힙합·트로트에 걸친 130여 개의 앨범을 유튜브에 공개해 누적 조회 수 100만 회를 넘겼다.

음악에 대한 지식이 없는 사람도 가볍게 나만의 음악을 만들어 활용할 수 있게 됐으니 예술 창작의 민주화가 이뤄진 걸까. 하지만 AI의 대량 생산 능력이 가격 파괴로 이어져 전문 음악인의 설자리를 위협할 수도 있다. 이츠키 유우의 소설 『기계 고래는 노래한다』는 AI 작곡이 보편화된 세계를 배경으로 작곡가도 연주자도 AI를 위한 도구로 전락해버린 디스토피아적 풍경을 그리고 있다.

하지만 글쓰기 플랫폼에 누구나 글을 발표할 수 있듯, 이미 작곡도 누구나 할 수 있는 일이 됐다. 정경영 한양대 작곡과 교수는 “AI 작곡은 피할 수 없는 방향이다. 하지만 선별하는 귀가 생길 것이고, 잘 쓰는 사람에 대한 리스펙트가 더 커질 것”이라며 “진짜 작곡가는 자기가 한 번도 들어보지 않은 음악을 하는 사람이다. 대중음악도 원본성과 누구의 브랜드냐가 중요한데, AI가 자기만의 독특한 아우라를 창조할 수 있느냐는 영원한 숙제로 남을 것”이라고 전망했다.

인간 음악가와 AI의 공존은 협업을 통한 새로운 장르 개척에서 이룰 수 있다는 시각도 있다. AI의 역할이 음악가의 영역을 흡수하는 것이 아니라 창작의 도우미가 될 수 있다는 것이다. 이교구 교수는 “음악가들로부터 AI 기술이 소리를 만드는 도구로서 파괴적인 혁신을 이룰 수 있겠다는 의견도 들었다”면서 “다프트펑크가 어쿠스틱 악기가 내지 못하는 소리를 전자음으로 비틀어내며 EDM 열풍을 불러왔듯, 이제껏 존재하지 않았던 목소리를 만들어 새로운 음악적 지평이 열릴 수 있을 것”이라고 기대했다.

‘이봄’을 만든 스타트업 크리에이티브마인드의 대표 안창욱 GIST교수도 “현재는 작곡가들도 일부 유명인을 제외하고서는 먹고 살기 힘든 구조다. 실제로 음악가들과 작업해 보니 나오는 곡의 수가 적어 음악 생태계가 정체되는 면이 있다”면서 “AI작곡이 보편화되면 음악 시장의 파이가 어마어마하게 커진다. AI가 제공하는 콘텐트에 작곡가가 영감을 더하기도 쉽고, 편곡자·가수·세션·제작사·유통사까지 일이 많아질 것”이라고 확신했다. AI로 인해 다양한 콘텐트가 생산되고 소비되는 음악 생태계 자체가 풍성해질 것이라는 얘기다.

저작권 보호 못 받는 AI 창작물, 관련 법 개정이 선결 과제 Q 나는 개인 유튜버다. AI 작곡가 구독 서비스를 이용해 BGM을 만들었다. 어느 날 다른 채널에서 내가 만든 음악을 들었다. 내 권리를 찾을 수 있을까? 나는 개인 유튜버다. AI 작곡가 구독 서비스를 이용해 BGM을 만들었다. 어느 날 다른 채널에서 내가 만든 음악을 들었다. 내 권리를 찾을 수 있을까? A 이 질문에 대한 대답은 ‘찾기 어렵다’다. 현행 저작권법은 ‘인간’의 사상 또는 감정을 표현한 것을 저작물로 보고 있기 때문이다. AI 작곡가를 통한 음원은 저작권 보호의 사각지대에 놓여 있다. AI 작곡이 상용화될 때 문제가 발생할 수 있는 이유다. AI가 창작물을 만들기까지는 개발자와 이용자, AI 학습 데이터의 저작권자까지 많은 사람의 수고가 개입되기 때문이다. 세계적으로도 AI 창작물은 권리 귀속, 권리 범위 및 보호 기간 등의 쟁점에 대한 합의를 끌어내지 못해 저작권 보호를 받지 못하고 있다. 일본은 “AI 창작물을 세상에 알린 사람의 권리를 인정하자”는 방향성을 세웠고, EU는 2017년 AI 로봇의 법적 지위를 ‘전자인간’으로 인정하는 결의안을 채택해 저작권 보호의 토대를 마련한 정도다. 우리 정부는 지난해 12월 ‘인공지능 법·제도·규제 정비 로드맵’을 발표했다. 이에 따라 AI에 법인격을 부여하는 방안이 모색되고, AI 공통 기반을 구축하는 차원에서 데이터기본법이 올 상반기 제정될 예정이다. 인간과 AI의 공존의 열쇠를 쥔 저작권 관련 쟁점은 크게 3가지다. 법무법인 광장의 저작권 전문 곽재우 변호사와 함께 살펴봤다. ① AI 작곡가에게 저작권을 인정하면 대량 생산으로 독점 문제가 발생한다?

“그런 문제도 있을 수 있지만, AI에게 저작권을 인정하지 않는다면 기술을 개발할 유인이 없어지게 된다. 세계 각국과의 AI 기술 패권 경쟁이 치열한 상황에서 우리나라의 기술 개발 및 산업 진흥을 도모해야 한다는 목적이 반드시 고려되어야 한다. 다만 보호 범위를 적정 수준에서 정할 필요가 있다. AI 창작물을 저작권으로 보호하되 부작용 방지를 위해 귀속 주체에 관한 명확한 기준을 제시하고, 보호 기간을 적절한 수준으로 설정하며, AI 저작권을 침해하는 경우 사람의 경우보다 상대적으로 처벌을 완화하는 방안 등을 고려해 볼 수 있다.” ② AI의 학습 데이터로 사용되는 기존 저작물은 보호하지 않나?

“AI 기술은 인간의 지적 기능을 대행하거나 보완하는 것이 목표다. 데이터가 제한적일 경우 편향성으로 인해 신뢰하기 어려운 결과가 초래될 수 있다. 이와 관련해 각국이 유사한 관점에서 저작권법 개정을 추진하고 있다. 영국의 경우 비상업적 연구 목적의 데이터 분석을 위한 복제를 허용하고, EU도 과학적 연구 목적의 데이터마이닝을 허용한다. 우리도 15년 만에 추진하는 저작권법 개정의 주요 내용 중 하나로 ‘딥러닝 및 빅데이터 분석 등을 위해 저작물의 이용이 필요하다고 인정되는 범위 내에서 이용 허락을 받지 않아도 되도록 허용’하는 조항의 신설을 검토하고 있다.” ③ AI 창작물이 기존 저작물의 권리를 침해한다면 누구 책임인가?

“AI의 자동화 정도와 밀접한 문제다. 자동화 정도가 매우 높은 수준이어서 인간의 관여 없이 AI가 기존 저작물을 활용해 작곡한 경우라면 AI 개발자나 사용자에게는 책임을 묻기 어렵고 AI에게 책임을 지워야 할 텐데, 인간이 아닌 AI에게 법적 책임을 묻기 위해서는 관련 법 체계의 조정 및 정비가 선결 과제다. 반면 자동화 정도가 낮아 AI에게 기존 저작물을 사용하라고 명령한 사람이 유사한 수준의 결과물을 예상할 수 있었다면, 그 명령자에게 저작권 침해의 책임을 물을 여지가 있다.”

유주현 기자/중앙컬처&라이프스타일랩 [email protected]

키워드에 대한 정보 인공 지능 음악

다음은 Bing에서 인공 지능 음악 주제에 대한 검색 결과입니다. 필요한 경우 더 읽을 수 있습니다.

이 기사는 인터넷의 다양한 출처에서 편집되었습니다. 이 기사가 유용했기를 바랍니다. 이 기사가 유용하다고 생각되면 공유하십시오. 매우 감사합니다!

사람들이 주제에 대해 자주 검색하는 키워드 AI와 음악의 만남 – 인공지능이 음악을 창작하는 시대 [사이언스 포럼] / YTN 사이언스

  • YTN사이언스
  • 프로그램
  • 사이언스프로그램
  • 사이언스 포럼
  • 비주얼아트
  • 튜링테스트
  • 플로우머신즈
  • 작곡AI
  • 즉흥환상곡
  • 쇼팽
  • 창작
  • 강의

AI와 #음악의 #만남 #- #인공지능이 #음악을 #창작하는 #시대 #[사이언스 #포럼] #/ #YTN #사이언스


YouTube에서 인공 지능 음악 주제의 다른 동영상 보기

주제에 대한 기사를 시청해 주셔서 감사합니다 AI와 음악의 만남 – 인공지능이 음악을 창작하는 시대 [사이언스 포럼] / YTN 사이언스 | 인공 지능 음악, 이 기사가 유용하다고 생각되면 공유하십시오, 매우 감사합니다.

Leave a Comment