이런 극단적인 상황은 아니지만 적지 않은 사람이 마비 증상을 겪고 있다. 뇌출혈이나 교통사고, 때로는 근위축성측색경화증(루게릭병) 등으로 신경이나 근육이 손상돼 뇌의 신호가 전달되지 않거나 받은 신호를 수행하지 못한 결과다. 마비 환자들은 타인의 도움 없이는 일상생활이 불가능하고 외부와 소통할 수도 없다. 그래서 이들이 가장 절실하게 원하는 건 ‘삶의 독립성’을 조금이나마 되찾는 것이다.
기계학습으로 뉴런 활성 패턴 인식
최근 학술지 ‘네이처’에는 근위축성측색경화증이나 뇌출혈로 발성에 관여하는 근육이나 이를 조절하는 신경이 파괴된 안면 마비 환자들이 인공지능의 도움으로 말을 할 수 있게 됐다는 연구 결과를 담은 논문 두 편이 발표됐다. 이 경우 근육을 자극해 말을 하게 한 건 아니고 뇌의 신호를 해석해 문장을 만들어 스피커로 내보낸 것이다. 이처럼 컴퓨터가 신경을 대신해 말을 내보내는 장치를 ‘발화(speech) 신경보철’이라고 부른다.
물론 지금도 환자의 상태에 따라 의사소통을 할 수 있는 수단이 있다. 손을 쓸 수 있다면 글로 적어 표현할 수 있고 근위축성측색경화증 환자는 눈의 움직임으로 작동하는 안구 마우스를 이용할 수 있다. 그러나 속도가 느려 일상적인 대화는 어려운 게 사실이다.
따라서 과학자들은 뇌에서 발화에 관여하는 영역의 뉴런(신경세포) 활동을 해석해 무슨 말을 하려고 하는지 알아내는 방법을 개발하는 연구에 뛰어들었다. 즉 뇌의 피질에 전극을 꽂아 발화를 시도할 때 뉴런의 활동 패턴을 분석해 문장으로 재구성해 내보내는 과정이다.
‘이게 가능한가?’ 이렇게 생각할 독자가 많을 텐데 수년 전부터 화제가 된 인공지능의 기계학습이 이를 가능하게 했다. 즉 안면 마비 환자가 제시된 단어를 보고 이를 말하려고 시도할 때 발생하는 뇌의 신호를 인공지능이 학습해 각각의 패턴과 단어가 일대일로 대응하는 데이터를 구축한 뒤 이를 토대로 실제 상황에서 환자의 의도를 해석해 말로 내놓는 것이다.
일상 대화의 절반 속도까지 가능
먼저 미국 스탠퍼드대 연구진이 근위축성측색경화증 참가자를 대상으로 한 결과를 보면 단어 50개를 학습한 뒤 실행했을 때 틀린 경우가 9.1%에 불과했다. 보통 우리가 말할 때 단어를 잘못 알아듣는 경우가 5% 내외이므로 꽤 준수한 결과다. 다만 단어가 50개에 불과하므로 기본적인 문장만 구사할 수 있다. 다음 단계로 12만5000개 단어를 학습한 뒤 실행하자 오류가 23.8%로 꽤 올라갔다. 그러나 거의 모든 얘기를 할 수 있는 어휘임을 생각하면 단어 네 개에 세 개꼴로 맞춘다는 건 놀라운 결과다. 게다가 1분에 62개 단어를 말할 수 있어 기존 다른 방법과 비교할 수 없는 빠른 속도를 보였다. 보통 말하는 속도인 분당 160단어보다는 여전히 느리지만 상대가 큰 불편함을 느끼지 않고 대화할 수 있는 수준이다.
다음은 미국 캘리포니아대 샌프란시스코 캠퍼스 연구자들의 뇌졸중 참가자를 대상으로 한 실험 결과로, 전극을 뇌 피질 깊숙이 넣는 대신 표면에 부착하는 덜 침습적인 방법을 이용했다. 이 경우 개별 뉴런의 활동을 측정할 수는 없고 전체적인 활동 패턴의 변화만을 기록할 수 있다. 그럼에도 인공지능의 기계학습이 이 패턴을 해석해 참가자가 말하려고 한 단어를 제시한다. 이 장치는 분당 78단어를 내보내 앞서 장치보다 더 빨랐지만 대신 오류는 25.5%로 약간 더 높았고 사용하는 단어가 1024개에 머물렀다.
이처럼 놀라운 발전에도 불구하고 발화 신경보철이 널리 쓰이려면 몇 가지 문제가 해결돼야 한다. 먼저 지금은 유선인 장비를 무선(블루투스)으로 바꿔야 한다. 머리에 전선을 달고 다닐 수는 없기 때문이다. 다음은 해독 알고리듬을 개선해 오류율을 10% 밑으로 낮춰야 무난한 대화가 가능하다. 끝으로 많은 사람을 대상으로 임상시험을 진행해 보편적으로 작동함을 보여야 한다. 관련 연구자들은 상용화가 시간문제라고 자신하고 있다.
지난 2018년 세상을 떠난 물리학자 스티븐 호킹은 근위축성측색경화증으로 결국 말을 잃었지만 강연과 집필 활동을 멈추지 않았다. 만일 인공지능 기술이 좀 더 일찍 발전했더라면 호킹의 대외활동이 훨씬 더 활발했을 거라는 생각이 든다.