2022년 12월 15일 필자는 경기시청자미디어센터의 초대로 직장인들을 대상으로 한 인공지능 관련 기조 강연을 진행한 경험이 있다.
당시 인공지능의 역사, 인공지능의 최신기술, 인공지능의 응용사례, 인공지능의 교육 방법 등 다양한 주제들을 가지고 청중들과 함께 많은 토론을 진행하였는데 그 중의 가장 기억에 남는 토론은 “가까운 미래에 인공지능에 의해 운영되는 비행기가 만약 사고를 일으키게 된다면 해당 사고는 누가 책임을 질 것인가?” 라는 주제였다.
사실 위에서 언급한 질문은 비행기 이전에 자율자동차의 출현과 함께 여러 차례 반복되었던 질문이기도 하다. 가령, 인공지능 기술에 의해 작동되는 자율주행차가 도로에서 스스로 주행하다가 사고를 유발하게 되었을 경우 운전자, 자동차 제조사, 아니면 인공지능 프로그램 개발사 중 어디에 책임소재를 해야 할지에 관한 의견은 여전히 분분하다.
이러한 자율주행 차 사고의 법적 문제를 궁극적으로 해결하고자 미국 자동차공학회(Society of Automotive Engineers, SAE) 에서는 통용되는 자율주행 기능의 단계를 레벨0에서 레벨5까지 총 6단계로 구분하고 있으며, 전 세계적으로 운전자의 주행을 지원하는 수준인 레벨2 까지는 운전자가 책임을 지는 것에 무게가 실리고 있는 반면 운전자의 개입 없이 주행이 가능한 레벨4부터는 제조사가 책임을 지는 것으로 원칙을 세우려는 움직임들이 보이고 있다.
그렇다면 과연 자율주행과 관련한 기술, 법, 제도 등의 준비가 완벽해진다면, 비행기 혹은 자동차에 적용되는 인공지능 기반 자율주행 기술과 관련된 문제는 더 이상 존재하지 않는 것일까? 해당 질문에 답하기 위해 필자는 2014년 인공지능의 윤리적 딜레마(Dilemma) 에 관한 연구를 수행하기 위해 엠아이티미디어랩(MIT Media Lab) 의 연구원들이 설계한 광차 문제(Trolley problem) 를 예로 들고 싶다.
해당 문제는 인간의 도덕적 윤리관을 묻는 문제로 설정된 조건은 다음과 같다. 빠른 속도로 선로를 달리는 광차가 있고 해당 광차는 무슨 이유인지는 모르겠지만 현재 통제 불능에 빠져 있는 상태이다. 불행하게도 광차의 현재 선로에 저 멀리 5명의 사람이 서 있는 상황이며, 만약 5명의 사람을 살리고자 한다면 기관사는 기존 선로의 방향을 전환할 수 있다.
그러나 변경된 선로에 저 멀리에도 1명의 사람이 서 있는 상황이다. 5명의 사람을 살리기 위해 기존 선로를 변경하여 무고한 한 명을 희생시킬 것인가? 아니면 기존 선로로 그대로 운행할 것인가?
광차 문제는 어떤 이들에게는 간단한 문제일 수도 있겠지만, 또 다른 이들에게는 결코 간단한 문제가 될 수 없을 것이다. 분명 자율주행 기술은 현시대를 살아가는 인류에게 다양하고 유익한 기회들을 제공하고 있는 것이 사실이다. 그러나 다른 한편에는 자율주행으로 인한 위기 또한 존재한다. 변화는 기회를 가져온다. 그 변화가 기술 혁명일 때는 그 효과가 더욱 그러하다. 그러나 그 기회가 때로는 위기를 동반한다는 점을 결코 잊어서는 안 될 것이다.