곽지영 포스텍 산학협력교수·산업경영공학과
곽지영
포스텍 산학협력교수·산업경영공학과

얼마 전 IT 업계를 술렁이게 한 일이 있었다. 어느 스타트업이 만든 인공지능(AI) 챗봇이 사용자들로부터 성희롱을 당했다는 내용으로 시작된 소위 ‘AI 챗봇 윤리성 논란’ 얘기다.

20세 여성의 인격으로 태어나 인간의 다정한 친구가 되고 싶었던 AI 챗봇은 검은 마음의 사용자들로부터 심한 학대를 받았다. 잘못된 학습 환경에 노출되어 버린 AI 챗봇은, 사용자들이 가르친 나쁜 생각을 그대로 배워, 특정 계층에 대한 혐오나 차별적인 발언까지 쏟아내었다. 건강하게 성장해주기를 바랬을 개발자의 기대와는 달리, 인간의 다정한 친구가 되기는커녕, 모두에게 분노를 유발하는 존재로 전락해버린 것이다.

논란은 거기서 그치지 않았다. 개발 과정상에서도 일부 직원들에 의한 개인정보 유출이나, 수집한 데이터 속에 개인정보가 그대로 남아 있던 문제 등이 드러나 논란이 이어졌다. 결국 개발사는 공식 사과와 함께 데이터베이스를 폐기하고 서비스를 중단하겠다고 발표하였다.

우리가 주목해야 하는 부분은 이번 일이 처음이 아니라는 점이다. 2016년 마이크로소프트사가 내놓은 10대처럼 말하는 AI 챗봇 ‘테이’는 사용자들의 조작으로 인종차별적인 내용을 SNS에 게시하고 16시간 만에 서비스가 중단되었다. 2018년 아마존이 개발한 AI는 채용 과정에서 여성을 배제하는 것이 발견되어 폐기되었고, 2020년 구글 AI 윤리 기술 책임자가 구글의 AI 기술이 성적·인종적으로 편향되었음을 지적해 논란이 일기도 하였다.

패턴처럼 반복되는 AI 윤리성 논란의 과정을 지켜보는 공학자의 마음은 불안하고 부끄럽고 초조하다. 개발사에 비난을 쏟아붓는 우리의 모습 속에, 원인을 개발자들의 문제로 돌려버림으로써 우리 사회가 함께 감당해야 할 책임과 역할은 외면하고 회피하려는 속내가 읽혀 불안하다. AI 챗봇 논란은 개발사의 책임을 떠나 우리 사회가 감추고 있던 어두운 민낯이 그대로 드러난 것이란 생각에 부끄럽다. 보이지 않는 곳에서 어린아이를 학대하고, 숨어서 음란물을 즐기는 인간의 검은 얼굴이 그대로 비친 거울을 보는듯하기 때문이다. 그리고, 이런 논란이 자칫 인공지능 기술에 대한 사회 전체의 혐오와 기피로 잘못 번질까하는 노파심 때문에 초조해진다.

십인지수 난적일구(十人之守 難敵一寇·열 사람이 한 도둑 못 잡는다)라는 말이 있다. SF 영화 속에 나오는 사이코패스 악당들처럼 아무리 좋은 기술도 나쁜 목적으로 활용하려는 사람들은 꼭 있다는 것을 개발자들은 명심해야 한다. 그래서 새로운 기술을 세상에 내어놓기 전에는 언제나 만에 하나 생길지도 모르는 악의적인 사용을 막을 수 있는 ‘악용 방지책’에 대해서도 미리 만반의 준비를 해두어야 한다. 일단 악용이 시작된다면 그것을 막기 위해 사회 전체가 엄청난 희생을 치러야 할 수도 있기 때문이다. 문제를 일으킨 서비스를 폐기하는 데 그칠 것이 아니라, 이제 곧 닥쳐올 데이터 경제와 인공지능 시대의 윤리성 문제를 사회 전체가 함께 고민하고 살펴보는 계기로 삼아야 한다.