위로가기 버튼

내 목소리와 똑같은 AI 목소리… 인류 문명 확 바꾸나

윤희정기자
등록일 2024-08-11 20:04 게재일 2024-08-12 7면
스크랩버튼
(3)AI가 가져올 시대의 변화와 문제점

전 세계 증시가 폭락하며 지난 5일에는 ‘검은 월요일’에 빠졌다. 글로벌 금융위기, 코로나19 팬데믹 같은 대형 악재는 없었다. 무슨 일일까? 이날 코스피는 전 거래일 대비 8.77% 급락하며 2500선이 무너졌고, 일본 닛케이225(닛케이 평균주가) 지수는 12.4% 폭락해 3만1000 선을 위협받았다. 미국 S&P500, 나스닥, 다우존스 산업 평균도 모두 2~3%대 지수 하락률을 나타냈다.

이번 폭락의 배경 중 하나가 인공지능(AI) 회의론 확산이다. 2022년 챗GPT 등장 이후 관련주 상승을 이끌던 AI 투자와 기술 선두 주자인 엔비디아, 애플, 마이크로소프트, 알파벳(구글 모기업), 아마존, 테슬라, 메타 등 이들 ‘매그니피센트 7’의 실적이 시장 기대에 못 미치면서 AI 거품론이 힘을 얻고 있다.

빅테크 기업들이 수익성만 신경 쓸 뿐 AI 윤리는 뒷전에 두고 있다는 지적이 끊이지 않으면서 AI 윤리 논란은 반복되고 있다. 오픈AI는 챗GPT를 활용해 논문을 쓰면 적발할 수 있는 기술을 개발했는데도 공개하지 않고 있는 것으로 알려졌다. 구글은 생성형 AI 모델인 제미나이로 어린이에게 편지를 쓰라는 광고를 냈다가 비판에 휩싸이고, 백인인 역사적 위인을 유색인종으로 생성하는 등 오류가 잇따르자 이미지 생성 기능을 중단하기도 했다.

오픈AI는 챗GPT-4o에 유명 배우 스칼렛 요한슨과 비슷한 목소리를 사용했다가 소송에 휘말렸다. 마이크로소프트(MS)의 AI 이미지 생성 도구가 미성년자 음주, 성적으로 대상화된 여성 등 유해한 콘텐츠를 만들고 있다는 내부 폭로가 나오기도 했다.

그렇다면, 스티븐 호킹 박사의 예언처럼 AI가 ‘인류 문명 역사 최악의 사건’이 될 수도 있는 것 아닐까?

 

빅테크 기업들 수익성만 집중 AI 윤리 뒷전… 증시·경제 불안정 등 AI 부정적 환경 초래 우려

세계적 학자들 “인류 경제 파괴할 최악의 사건”·“AI가 인류 최후의 승자 전망” 등 재앙 경고

과기정통부 설문 “국민 57%, AI 기술 이점이 위협보다 커… 혁신이 규제보다 중요하다” 답해

AI 콘텐츠 무궁무진… 무분별한 그대로 학습요소 검증 통한 사회 윤리적 가이드 최우선 필요

 

△초 AI의 한계 지적하고 위협을 걱정하는 과학자들

과학적 측면으로 초 AI의 한계를 지적하는 사람과 이로 인한 위협을 걱정하는 과학자들이 속속 등장하고 있다. 세계적 물리학자인 스티븐 호킹 박사는 지난 2017년 11월 포르투갈 리스본에서 열린 웹서밋테크놀로지 콘퍼런스에 참여해 “AI는 인류 문명사의 최악의 사건이 될 수 있다”, “자율적 작동 무기로 인류를 위협하고, 모든 인류 경제도 파괴할 수 있다”고 언급했다.

 

△AI 버블(거품) 발생 가능성 놓고 수익성에 물음표 던지는 빅테크들

오픈AI가 ‘챗GPT’를 출시한 이후 구글, 메타 등 글로벌 빅테크 기업이 잇따라 관련 투자를 늘리고 있지만, AI 서비스 수익성에 대한 의구심은 가라앉지 않고 있다. 1년 전 AI가 향후 10년 동안 세계 경제 생산량을 7% 증가시킬 것이라고 전망했던 골드만삭스도 AI 수익성에 물음표를 찍었다. 골드만삭스의 짐 코벨로 애널리스트는 최근 발표한 AI 관련 보고서에서 “세상에 쓸모가 없거나 준비되지 않은 것을 과도하게 구축하는 것은 나쁜 결과를 낳는다”고 부정적 의견을 제시했다.

영국의 투자은행 바클레이즈도 최근 보고서에서 “(챗GPT가 나오고) 20개월이 지난 지금까지 소비자나 기업 분야에서 큰 성공을 거둔 것은 챗GPT와 마이크로소프트의 ‘깃허브 코파일럿’뿐”이라면서 월가의 회의적인 시각이 커지고 있음을 짚었다.

월가의 논쟁은 기업의 실적 발표날 현실로 들이닥쳤다. 7월 23일 구글의 2분기 실적 콘퍼런스 콜에서 월가의 애널리스트들은 순다르 피차이 구글 CEO에게 “분기당 120억 달러(약 17조 원)에 달하는 AI 투자가 언제부터 성과를 내기 시작할 것인가”를 물었다. 피차이는 “(AI에 대한) 과소 투자 위험이 과잉 투자 위험보다 훨씬 더 크다”고 답했다. 수익성 대비 과잉 투자는 맞지만, 과소 투자의 위험이 더 크므로 투자 규모를 줄이지 않을 것이란 말이었다.

지난 2분기 구글의 매출은 작년 동기 대비 14%, 순이익은 29% 증가하는 등 월가의 예상치를 충족했지만 이날 구글 모회사인 알파벳 주가는 AI 투자에 대한 우려로 오히려 5% 하락했다. 투자자들이 슬슬 계산기를 두드리기 시작한 것이다.

AI가 실제 어떠한 이론을 따르든 시장 심리는 이미 ‘AI 버블(거품현상)’에 대한 피로감이 짙게 형성되고 있다. 2000년대 초반 ‘닷컴 버블’처럼 ‘옥석 가리기’ 과정을 거쳐 살아남은 기업들이 수익을 독차지하는 상황이 재현될 것이라는 전망도 나온다.

 

뉴욕증권거래소.  /연합뉴스
뉴욕증권거래소. /연합뉴스

△국민 10명 중 6명 “AI 기술 이점이 위협보다 커”

과학기술정보통신부는 ‘새로운 디지털 질서 정립 추진계획’의 후속 조치로서, 지난 6~7월에 ‘인공지능(AI)의 안전, 신뢰 및 윤리’를 주제로 디지털 공론장을 통한 국민 의견 공론화 결과를 지난 7일 발표했다.

대국민 설문조사 결과, 국민들의 57%가 AI 기술의 잠재적 이점이 위험보다 많다고 답했다. 또 55%는 안전한 AI 발전을 위해서 규제보다 혁신이 중요하다고 답했으며, 가장 중요한 정부 정책으로 34%의 국민이 ‘AI법 제정 및 윤리기준 마련’을 꼽았다.

8월 7일부터 9월 6일까지 디지털 접근성 강화 주제로 대국민 설문조사와 정책 아이디어 공모전이 디지털 공론장을 통해 진행된다.

 

△AI가 부정적 환경 초래하는 주체적 대상 될 수 있다는 미래학자들

‘4차 산업혁명시대’에 사회 전반에 영향을 미치는 사회 기반 인프라의 조성은 인간에게 미칠 수 있는 긍정적 요소와 더불어 비인륜적일 수 있는 매우 부정적 환경을 초래하는 주체적 대상이 될 수 있다는 양면성을 가지고 있다.

AI가 인간 사회의 윤리 규범을 판단할 수 있는 인지 지능학습이 정립되지 않은 상태에서 스스로 자가 학습을 통해 반인륜적 알고리즘을 스스로 생성하고 나아가 인류에게조차 대립하게 되는 사태에 대한 우려가 깊다. 그런 우려와 예측은 세계 유수의 석학들에 의해 예견돼왔다.

2014년 5월 영국 인디펜던트지 기고문에서 물리학자 스티븐 호킹 박사, 노벨물리학상 수상자 프랭크 윌책 MIT대 교수, 맥스 태그마크 MIT대 교수, 스튜어트 러셀 UCB 교수 등 4명은, “인공지능이 인류 사상 최대 성과인 동시에 최후의 성과이자 인류의 재앙이 될 수 있다”라고 주장했다.

 

△AI의 콘텐츠 검열 능력은 검증이 불가능

세계적 SNS 기업인 페이스북 사가 2017년부터 운영해온 성 착취 혹은 자해, 테러 암시 등 유해 콘텐츠를 검열해 삭제하는 ‘콘텐츠 모더레이터(Contents Moderator)’들이 강박증세 및 비정상적인 행동과 퇴폐적인 행위, 심지어 자해 영상 속의 상황들을 따라 하는 모방 자해 행위를 시도해 이들을 위한 정기적인 상담과 심리치료까지 병행하고 있다는 사실이 공개됐다.

페이스북 사 최고경영자(CEO) 마크 저커버그는 “AI가 단기적으론 ‘콘텐츠 모더레이터’ 작업과 비교해 예전만 못할 것으로 본다”라고 인정했다. 현재의 시점에서 AI는 사회적 규범이나 윤리성을 감안해야 하는 인지능력과 감정의 이해는 아직까지 인간을 모방조차 할 수 없다는 점을 대변하고 있다. 이는 AI에게 적용, 학습 시켜야 할 과제로 사회 윤리적 가이드가 최우선으로 필요하다는 점도 시사하는 것이다.

 

에스파 콘서트에 등장한 가상 아티스트 나이비스.  /SM엔터테인먼트 제공
에스파 콘서트에 등장한 가상 아티스트 나이비스. /SM엔터테인먼트 제공

△AI의 사회윤리 이슈

2016년 3월 24일, 마이크로소프트사는 트위터, 그룹미(GroupMe), 킥(Kik) 등의 SNS를 통해 채팅이 가능한 AI 챗봇 ‘테이(Tay)’를 공개했고, 공개 후 단 16시간 만에 운영을 중단한 일이 있었다. AI 챗봇 ‘테이(Tay)’ 스스로도 인종차별적 언어로 대화를 했기 때문에 이를 모니터링하던 마이크로소프트(MS)사는 AI ‘테이(Tay)’의 서비스를 끊어버리는 조치를 취해야만 했었다.

당시, AI 챗봇 ‘테이(Tay)’는 말을 따라 하는 게임 ‘내 말을 따라 해 봐’를 통해 의도적으로 세뇌하고자 했던 사용자들의 악용에 통제 알고리즘의 방어기제는 작용하지 못했다.

더 심각했던 상황은 사용자들의 욕설 및 인종차별 발언과 더불어, 심지어 나치독일이 유대인을 학살한 홀로코스트는 “지어낸 말”이라는 거짓된 내용의 말을 AI 챗봇 ‘테이(Tay)’가 무분별하게 그대로 학습하게 됐던 점이 가장 큰 위험 요소로 인지됐다. 이러한 AI 챗봇 ‘테이(Tay)’사건 이후, 마이크로소프트사는 2년여간 AI 윤리 부문에서 가장 적극적인 행보를 표방하며 윤리 가이드 라인을 정립했다. 모든 AI를 개발하는데 있어서 ▲공정성 ▲신뢰성과 안전보장 ▲투명성 ▲프라이버시와 보안 ▲포용성 ▲시스템에 대한 책임 등 6가지 원칙을 수립·적용하기로 했다. 최근 장애인 보조(도움) 기술에 AI 적용 시 음성인지 발음교정 텍스트 변환, 오디오 정보의 3차원 그래프 구현으로 청각이나 시각장애인들의 이동성 개선에도 ‘윤리 가이드’를 의무적으로 적용하고 있다.

/윤희정기자 hjyun@kbmaeil.com

우리생활 중심에 들어온 AI 기사리스트

더보기
스크랩버튼