티스토리 뷰
어디선가 이런 이야기를 들어보았을 것이다. 어느 미식축구 선수가 사고로 목 아래 신체가 마비되었는데, 뇌 속에 칩을 삽입해서 TV를 켜고 끄거나 메일을 보내는 등 온갖 여러 전자 장치를 생각으로 조절하게 되었다는 이야기. 이 이야기처럼 뇌 신호를 읽어들여서 외부 장치를 조절하거나, 외부 장치로부터 뇌로 신호를 보내는 기술을 뇌-컴퓨터 인터페이스 또는 뇌-기계 인터페이스라고 부른다.
■ 측정하고 해독하고 자극하고
뇌-컴퓨터 인터페이스를 활용해서 외부 장치를 조절하기 위해서는 먼저 신경 신호를 읽어들일 수 있어야 한다. 앞서 언급한 이야기처럼 뇌 속에 칩을 삽입하는 침습적인 방법뿐만 아니라 뇌파(EEG)처럼 수술이 필요하지 않은 기술도 활용된다. 신경세포들의 활동을 시공간적으로 얼마나 정밀하게 측정할 수 있는 기술이냐, 휴대성이 어떠냐에 따라 활용 범위가 달라진다. 예컨대 뇌 속에 칩을 삽입하는 방법은 특정한 영역의 신경 활동을 시간적으로 정확하게 측정하기에는 좋지만, 뇌 전반의 활동을 측정하기에는 좋지 않고, 수술을 해야 한다는 부담이 있다. 뇌파는 수술이 필요하지 않고, 장비가 비교적 간소하며, 신경 활동을 밀리초 단위로 측정할 수 있다는 장점이 있다. 하지만 여러 영역의 전기적인 활동이 뭉뚱그려진 신호를 측정하므로 공간 해상도가 낮고, 뇌 안쪽에서 일어나는 활동일수록 측정하기 어렵다.
일러스트_김상민 기자
둘째로 측정한 신경신호를 해독할 수 있어야 한다. 예를 들어 뇌-컴퓨터 인터페이스 장치를 착용한 사용자가 ‘마우스 커서를 오른쪽으로’라고 생각했다면, 운동 뇌에서 일어나는 뇌 활동을 해석해서 컴퓨터에 ‘오른쪽으로’라는 명령을 보낼 수 있어야 한다. 뇌가 한번에 하나의 정보를 언제나 같은 방식으로 처리하는 것이 아니기 때문에 ‘오른쪽으로’라고 생각할 때마다 뇌 활동이 조금씩 다르다. 그래서 읽어들인 신경신호가 ‘오른쪽으로’ ‘위로’ ‘아래로’ ‘왼쪽으로’ 같은 여러 생각 중에서 어디에 해당하는지 해독하려면 인공지능의 도움이 필요하다. ‘오른쪽으로’라고 생각할 때의 신호를 인공지능에 입력하고, 인공지능이 이 생각이 ‘위, 아래, 왼쪽, 오른쪽’ 중 어디에 해당하는지 답하게 한 뒤, 답이 틀리면 수정하는 과정을 여러 번 반복해야 한다. 더욱이 사람마다 뇌 활동 양상이 조금씩 다르기 때문에 인공지능을 학습시키는 과정은 사용자가 바뀔 때마다 이루어져야 한다.
경우에 따라서는 뇌에 원하는 신경활동을 유발할 수도 있어야 한다. 로봇 의수를 착용한 경우를 생각해보자. 꽃송이를 떨어뜨리지 않으면서도 으스러뜨리지 않고 쥘 수 있으려면 힘을 잘 조절해야 한다. 이를 위해서는 로봇 의수에 달린 센서로 측정한 정보를 신경세포에 전달할 수 있어야 한다. 특정한 신경활동을 유발하는 것은 치료나 훈련 목적으로도 활용될 수 있다. 예를 들어 어떤 시각 자극(예: 70도, 130도 등 특정한 각도로 기울어진 선들)을 잘 인식하게 하도록 훈련시키는 경우를 생각해 보자. 참가자에게 참가자의 활동이 목표 자극(예: 70도로 기울어진 선들)을 볼 때의 뇌 활동과 비슷할수록 커지는 원을 보여주면서, 어떻게든 원을 키워보라고 한다. 그러면 신기하게도 사람들은 원을 키우는 방법을 찾아내는데, 이런 훈련을 거친 뒤에는 목표 자극(예: 70도로 기울어진 선들)을 다른 자극(예: 130도로 기울어진 선들)보다 더 빠르고 정확하게 인식한다고 한다.
■ 뇌-컴퓨터 인터페이스 기술의 발전
글의 첫머리에 나오는 이야기의 주인공 매튜 네이글이 뇌 속에 칩을 삽입하는 실험에 참가한 것은 15년 전인 2004년이다. 그사이에 신경신호를 읽어들이고, 해독하고, 원하는 방향으로 신경세포를 자극하는 기술이 발전하면서 뇌-컴퓨터 인터페이스 기술도 발전했다. 예를 들어 최근의 한 연구에서는 말하기와 관련된 뇌 피질 표면에 전극을 심어서 신경활동을 측정했다. 그리고 측정된 신경활동이 성대, 혀, 입술 등 말하기와 관련된 근육들의 어떤 움직임과 관련되는지 예측하도록 인공지능을 학습시켰다. 또 사람들이 말할 때 말하기와 관련된 근육을 어떻게 활용하는지를 측정한 데이터를 활용해서 인공지능을 하나 더 훈련시켰다. 이 인공지능은 말하기와 관련된 근육의 움직임으로부터 어떤 말을 하는지 예측할 수 있도록 훈련되었다. 연구자들은 두 개의 인공지능을 결합해서 말하기와 관련된 뇌 피질의 활동으로부터 어떤 말을 하는지 예측할 수 있도록 했다. 검색해서 들어보면 발음이 분명하지는 않지만 주의를 기울이면 단어를 추론할 수 있을 정도는 된다.
다른 최근 연구에서는 시각 뇌에 특정한 활동을 유발하기 위해서 어떤 자극을 입력하면 좋을지를 인공지능으로 예측했다. 인공신경망은 여러 뇌 활동 중에서도 시각 뇌의 활동을 특히 잘 모사한다. 연구자들은 원숭이 시각 뇌의 여러 위치에서 일어나는 신경활동을 관측하면서, 인공신경망의 모델 신경세포들이 관측하는 뇌 위치 각각의 활동을 시뮬레이션할 수 있게 맞췄다. 이렇게 만들어진 인공지능을 활용해서 특정한 활동을 유발하려면(예: 특정한 위치의 활동량이 평소보다 훨씬 커지게 하려면) 원숭이에게 어떤 시각 자극을 보여주면 좋을지를 예측했다. 연구자들은 이렇게 만들어진 시각 자극이 우연보다 높은 확률로 원했던 뇌 반응을 유발하는 것을 확인했다.
뇌-컴퓨터 인터페이스가 발전하면 거동이 불편한 사람들은 물론 비장애인들도 그동안 하지 못했던 다양한 일들을 할 수 있게 될 것이다. 사물인터넷 기술도 발전하고 있으니 온갖 장비를 생각만으로 조절하면서 육체라는 제약을 마침내 벗어나게 될지도 모르겠다. 아직은 꿈같은 기술이 멀티태스킹처럼 오히려 해로울지, 빈부격차를 심화시킬지, 해킹 등 사생활 침해 문제를 낳을지, 우리에게 새로운 지평을 열어줄지는 얼마나 많은 시민들이 어떻게 논의하고, 대비해 가는지에 달렸다.
<송민령 카이스트 바이오 및 뇌공학과 박사과정>
'일반 칼럼' 카테고리의 다른 글
[정동칼럼]공영형 사립대와 대학 공동입학제 (0) | 2019.06.07 |
---|---|
[사설]교통약자에게 최고의 복지는 이동편의다 (0) | 2019.06.07 |
[여적]하이힐과 ‘쿠투(KuToo)’ (0) | 2019.06.07 |
[그곳에서 사람을 만나다]서점이 사라져 아쉬운 것들 (0) | 2019.06.05 |
[노명우의 인물조각보]셀피 찍는 사람 (0) | 2019.06.05 |