인공지능(AI)도 ‘음악 인기차트’가 있을까 [김범준의 세상물정]
상태바
인공지능(AI)도 ‘음악 인기차트’가 있을까 [김범준의 세상물정]
  • 김범준 편집위원(성균관대 교수)
  • 승인 2024.01.23 09:21
  • 댓글 0
이 기사를 공유합니다

/사진=이미지투데이
/사진=이미지투데이

현재 빠르게 발전하고 있는 인공지능은 뇌의 작동 방식에 대한 인간의 이해에서 출발했다. 인공지능 신경망의 노드는 뇌의 신경세포에, 노드를 서로 연결하는 연결 행렬의 가중치는 뇌 안 신경세포를 연결하는 시냅스의 강도에 해당하는 식이다. 요즘 흥미로운 방식의 다른 시도가 진행되고 있다. 인간의 뇌에서 벌어지고 있는 정보처리의 메커니즘을 이해하는데 우리가 뇌에서 배워 구현한 인공지능을 이용해 보자는 아이디어다. 인공지능을 살펴 뇌를 이해하고자 하는, 간접적인 방식의 뇌과학 연구인 셈이다. 뇌에서 배워 구현한 인공지능으로부터 거꾸로 인간의 뇌에 대해서 우리가 배울 수 있는 것이 있지 않을까? 최근 KAIST 물리학과의 정하웅 교수 연구팀이 출판한 논문(DOI: 10.1038/s41467-023-44516-0)도 이런 방향의 시도라고 할 수 있다. 인간의 음악 본능이 어떻게 출현할 수 있는지 심층 인공 신경망으로 살펴본 연구다.

음악은 인류의 거의 모든 집단에서 자연스럽게 출현했다. 즐기는 음악은 집단마다 달라도 음악을 즐긴다는 사실은 어디서나 마찬가지다. 이러한 음악의 보편성은 음악이 일종의 진화적 적응일 가능성을 떠올리게 한다. 무언가 분명히 도움이 되니까 음악이 어디서나 출현했다는 얘기다. 다른 가능성도 있다. 음악 자체는 진화적 적응이 아니지만, 다른 중요한 적응이 일어나다 발생한 부산물일 가능성이다, 다른 질문도 이어갈 수 있다. 음악이 적응이라면 이는 개체 수준에서 일어나는 것인지, 아니면 집단 수준의 적응인지도 중요한 질문이다.

정하웅 교수의 연구진은 구글이 제공하는 현실에서 발생한 10초 분량의 소리 녹음 파일 수만개가 담긴 ‘AudioSet’라는 데이터를 이용했다. 이 소리는 바람 소리, 저 소리는 재즈 음악처럼, 인간이 직접 527개의 카테고리로 나눠 구별해 붙인 라벨이 함께 제공되는 데이터다. 먼저 연구진은 음악과 비음악 데이터 모두를 포함한 약 1만8000개의 학습 데이터를 이용해 심층신경망을 지도 학습의 방법으로 학습시켰다. 라벨로 주어진 정답 카테고리를 가능한 올바르게 출력하도록 하는 학습이 끝난 다음에는 학습 단계에서는 이용하지 않은 별도의 소리 데이터도 신경망이 성공적으로 구분할 수 있다는 것을 확인했다. 신경망은 주어진 입력 소리를 먼저 256차원의 벡터로 표상하는데, 연구진은 이를 다시 차원을 줄여 2차원 평면 위에 시각화해서 표현했다.

연구진의 다음 시도가 무척 재밌었다. 바로, 음악 데이터를 제외하고 비음악 데이터만을 이용해 심층신경망을 학습시킨 것이다. 음악을 가르치지 않아도 연구에 이용된 심층신경망이 음악을 장르별로 구별할 수 있는 능력을 가질 수 있을까? 정하웅 교수가 제공한 아래 그림이 바로 그 결과다. 개구리, 귀뚜라미, 아이의 옹알이 등 다양한 비음악 데이터만을 학습시켰는데도, 인공 신경망이 여러 음악을 구분할 수 있는 능력을 보여준다는 놀라운 결과다. 또 다른 흥미로운 결과도 있다. 사람 대뇌의 청각 피질에는 음악에 대한 정보가 처리되는 영역이 존재한다는 것이 이미 잘 알려져 있다. 정하웅 교수의 연구팀은 학습을 마친 인공 신경망의 내부에 비음악 소리에는 반응하지 않지만, 기악이나 성악 등 다양한 음악에는 반응하는 신경망 노드들이 자발적으로 형성되었다는 것도 확인했다. 우리 인간의 보편적 음악 본능은 자연의 소리에 대한 개체 수준 적응의 부산물일 수 있다는 것이 논문의 주된 결론이다.

음악이 아닌 소리를 학습한 심층 인공 신경망이 음악도 구분할 수 있는 능력을 가지게 된다는 결과 그림. /출처=KAIST 정하웅 교수
음악이 아닌 소리를 학습한 심층 인공 신경망이 음악도 구분할 수 있는 능력을 가지게 된다는 결과 그림. /출처=KAIST 정하웅 교수

음악이 아직 없었던 오래전 우리 선조를 떠올려 본다. 천둥소리와 호랑이의 포효소리를 구별할 수 있는 선조만이 자연에서 생존해 후손을 남겼을 것은 당연하다. 오늘 소개한 논문의 연구진은 천둥과 호랑이 소리를 구별하는 진화적 적응의 과정에서 자연스럽게 음악의 구조를 부호화하는 능력이 적응의 부산물로 우리의 뇌 안에 출현했을 가능성을 제시한다. 재즈와 살사를 구별하고 즐기는 우리의 능력은 천둥과 호랑이를 구별하고자 했던 선조가 남긴 유산인 셈이다.

정하웅 교수의 연구진은 이번 논문을 통해 현 인류가 어디서나 보여주는 보편적인 음악 본능이 자연의 소리를 성공적으로 구분해 낸 우리 선조들의 적응의 결과일 가능성을 제시했다. 물론, 이런 방식으로 진행되는 연구의 결과를 100퍼센트 진실로 곧바로 믿기에는 여전히 조심할 것이 많다고 나는 믿는다. 먼저, 우리가 우리 뇌에서 배워 만들었지만 인공 신경망에서 얻어진 결과가 곧바로 우리 두개골 안 뇌에 거꾸로 적용되는 것은 아닐 수 있다. 또, 개체의 수준이 아닌 집단 수준의 적응으로서 음악의 보편성이 출현했을 가능성은 오늘 소개한 논문의 연구 방법으로는 답하기 어렵다. 그래도 나는 이런 방식의 연구가 인간에 대한 우리의 이해에 도움을 줄 여지가 크다고 믿는다. 살아있는 사람의 뇌를 구석구석 찔러보며 미시적으로 살펴볼 수는 없기 때문이다. 인공지능이 앞으로 더 알려줄 우리 뇌의 또 다른 모습이 무척 궁금하다. 이렇게 얻어질 뇌에 대한 새로운 지식으로부터 재귀적으로 또다시 발전할 미래의 인공지능도 궁금하다. 미래에는 인공지능도 음악을 즐길지, 이들 사이에도 음악 인기 차트가 있을지, 이 차트의 음악 순위는 동시대 우리 인간의 빌보드 차트와 같을지 다를지, 난 벌써 무척이나 궁금하다.

 



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
주요기사