티스토리 뷰

최근 아마존 인공지능 채용 시스템이 이력서에 ‘여성’이라는 단어가 포함되면 감점을 해서 논란이 일었다. 원인은 인공지능이 학습한 데이터에 있었다. 아마존에서는 지난 10년간 회사에 제출된 이력서 데이터를 학습시켜 인공지능 시스템을 구현하였다고 한다. 남성 직원 비율이 60%인 아마존의 현실이 영향을 주어 여성에게 불리한 의사결정을 하게 된 것이다.

왜 이런 서비스가 제대로 검토되지 않고 사용된 것일까? 전문가들은 인공지능 의사결정을 블랙박스에 비유한다. 의사결정 과정이 감춰져 잘 보이지 않는다는 것이다.

이처럼 인공지능이 채용 등 고도화된 업무영역까지 맡게 되면서 의사결정의 투명성에 대한 요구도 함께 커지고 있다. 유럽연합(EU)은 지난 5월 발효된 일반개인정보보호법(GDPR)을 통해 알고리즘에 의한 자동화된 처리를 받지 않을 권리, 설명을 요구할 권리를 명기하고, 이를 위반하는 기업에 매출액의 4% 등에 상응하는 과징금을 부과하겠다고 나섰다.

인공지능 의사결정 과정을 투명하게 보여주는 기술은 없을까? 다행히 지난해부터 미국 국방성 산하 국방위고등연구계획국(DARPA)에서는 인공지능 의사결정 과정을 설명해주는 XAI(Explainable AI·설명 가능 인공지능) 기술을 연구해오고 있다고 한다.

많은 기업들이 인공지능 기술을 제품이나 서비스 혁신에 앞다퉈 적용하고 있지만, 편향된 데이터를 학습한 인공지능이 개발될 수 있다는 점을 간과해서는 안된다. 제품에 적용하기 전에 충분하고도 면밀한 검토가 필요하며, XAI와 같은 보완 기술에 대한 연구도 병행해야 할 것이다.

<이종범 | 카이스트 석사과정>

 

댓글
최근에 올라온 글
«   2024/04   »
1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16 17 18 19 20
21 22 23 24 25 26 27
28 29 30