티스토리 뷰

50년 전에 출간된 아서 클라크의 <2001 스페이스 오디세이>에서 우주선을 움직이는 인공지능 컴퓨터 ‘할9000’은 자존심을 지키려다 실수를 한다. 그 실수를 덮기 위해서 점점 더 큰 잘못을 저지르는 ‘할9000’과 목숨을 걸고 싸워야 했던 선장은 컴퓨터의 신경을 구성하는 칩을 하나씩 제거한다. 하나씩 제거할 때 인공지능 ‘할9000’의 대사는 처음 배웠던 것들을 추억하면서 점점 어눌해진다. 100년 전에 태어나 인터넷이나 우주정거장 같은 기술의 결정체들이 등장하기 전에 미리 언급한 것으로 유명한 클라크의 여러 예언들 중에서 내겐 가장 인상 깊은 장면이다.

오늘날의 인공지능도 ‘할9000’처럼 배워서 능력을 키운다. 사람처럼 공부해서 세상을 배운다. 이세돌에게 한 번 진 것을 제외하면 모든 대국에서 승리해 한국과 중국 기원에서 모두 프로 9단 자격증을 받은 알파고는 16만 개의 기보를 학습하고 3000만 개에 이르는 착점 위치 정보와 패턴을 파악해 다음 수를 예측했다. 이세돌과 대국할 때는 학습한 신경망 12개가, 커제와 대국할 때는 40개가 동원되었는데 신경망 사이의 대국으로 강화학습을 했다. 강화학습을 다시 분석해서 자가 대국의 결과에 승률과 가중치를 더해 승리의 확률을 더 올리는 길을 찾는다.

이렇게 무섭게 공부하고 새로운 시각으로 전인미답의 길을 열어가는 알파고, 혹은 알파고의 동료 인공지능들이 여전히 성적, 인종적 편견을 가지고 있다는 과학잡지 ‘사이언스’의 보고는 흥미롭다. 그것이 아무리 새로운 것이라고 하더라도 인간이 만든 모든 것이 역사적 산물이고 그 궤적에서 발생한 흔적들을 담을 수밖에 없다는 것을 깨닫는다. 최근에 인공지능은 바둑만 공부한 것은 아니고 다양한 분야의 공부를 했다. 특히, 언어 공부의 발전은 눈이 부셔서 이제 통역이나 번역에도 새로운 사건이 곧 일어날 것으로 보인다. 이런 공부의 목표는 사람처럼 자연스럽게 언어를 구사하는 것이다. 당연히 사람과 비슷하게 언어를 사용하게 되면서 언어 사용의 패턴에 깊게 숨겨져 있던 편견도 함께 보여주고 있다. 함께 쓰이는 단어들의 빈도를 조사해서 비례하는 숫자로 바꾸어 분석하면 사전이 표시하고 있지 않은 문화적, 사회적 맥락이 드러난다. 예를 들어, ‘꽃’이라는 단어는 통계적, 수학적으로 표시된 언어 공간에서 기분 좋은 단어들과 함께 모여 있다. 하지만 ‘벌레’라는 단어 주변에는 불쾌한 단어들이 놓여 있다. 이런 그림에는 보통 사람들의 감정과 꽃과 벌레에 대한 생각들을 담고 있다. 최근의 연구들은 이런 사람들이 가진 편견들이 인공지능에게도 그대로 이식되어 있다는 것을 보여준다.

‘여성’ 혹은 ‘여자’라는 단어는 예술과 인문학적인 배경이 필요한 직업이나 가정과 가까이 놓이는 반면 ‘남성’ 혹은 ‘남자’라는 단어는 과학이나 공학과 관련된 직업과 가깝게 있다. 인공지능의 언어 사용을 분석한 언어 공간에서 유럽식 이름은 ‘선물’이나 ‘행복’과 같은 긍정적인 단어들과 가까운 반면 아프리카식 이름은 부정적인 단어들과 가깝게 놓여 있다. 인공지능이 이미지와 단어를 조합할 때도 백인의 얼굴을 기분 좋은 단어와 더 가까이 놓는다. 똑같은 이력서에 이름만 유럽식으로 쓴 경우와 아프리카식으로 쓴 경우, 서류전형을 통과해 면접까지 올라갈 확률이 50% 정도 차이가 난다. 온라인에 돌아다니는 8400억 개의 단어를 학습한 경우나 구글 뉴스를 학습한 경우 모두 결과는 비슷했다.

인공지능의 등장에 열광하고 4차 산업혁명을 이야기하면서, 장밋빛 미래를 이야기하는 사람들이 넘쳐 난다. 곰곰이 들여다보면, 이 사람들은 자동차 운전도 자율주행차에 맡기고 병의 진단이나 수술도 인공지능에 맡길 생각인 것 같다. 회사나 조직의 인사관리나 평가도 인공지능에 맡기자는 이야기가 넘쳐난다. 그런데 편견을 가진 인공지능이 그런 결정들을 모두 한다면 우린 공평하고 안전한 세상에서 살게 되는 것일까?

내 걱정은 이렇다. 자율주행차가 사고를 만났을 때, 운전자와 보행자 중 어떤 쪽을 보호하는 방향으로 핸들을 조작할까? 두 명의 보행자 중에서 백인을 보호하는 쪽으로 핸들을 돌리도록 조작하지는 않을까? 그런 결정을 맡기기 위해서 과학자들은 편견을 제거한 인공지능을 만드는 법을 고민하는 모양이다. 인공지능의 편견을 보고한 과학자는 적어도 인공지능은 자기가 판단한 근거에 대해서 거짓말을 하지 않기 때문에 편견을 수정할 수 있다고 말한다. 하지만 나는 여전히 사람에 대한 결정을 사람이 만든 어떤 것이 하는 것이 미덥지 않다. 여전히 인공지능의 편견을 제거하겠다고 나선 것이 인간이라면 그 인간의 편견이 인공지능에 남지 않을 수 없기 때문이다.

주일우 | 이음출판사 대표

댓글
최근에 올라온 글
«   2024/05   »
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31