인공지능에게도 헌법이 필요할까. 이 질문은 감정도 의지도 없는 기계에게 헌법을 적용해야 하냐는 뜻이 아니다. AI를 통해 행사되는 권력과 판단에 대해 우리가 어떤 헌법적 기준과 책임을 부여할 것인지를 묻는 것이다. AI 기술이 일상과 사회 전반을 구성하는 시대에 진입하고 있는 요즘, 더욱 깊이 되새겨야 할 근본적 물음이 아닐까.
헌법의 본질은 국가와 같은 남용될 수 있는 거대한 권력의 행사를 제한하고 균형을 도모해 인간의 기본권과 존엄성을 지키는 데 있었다. 과거에는 국가 권력의 힘이 가장 컸다면 오늘날에는 기업과 사인의 권력으로부터 개인의 권리를 지키는 데 헌법이 쓰였다. 그리고 이제는 AI와 로봇, 알고리즘의 판단이 또 하나의 거대한 권력이 되어가고 있는 것이다. 특히 AI는 미디어와 광고, 금융, 보건 등 다양한 분야에서 개인의 삶에 직접적인 영향을 미치기 시작했다. AI 시대엔 판사와 변호사, 의사가 가장 먼저 사라질 직업이라고 하는 걸 보면 AI가 사법부의 대행이 되고 국민 보건소의 대행이 될 날도 머지않았나 보다. 하지만 AI의 판단이 제한과 검증 없이 그저 ‘객관적’이라고 여겨지는 순간, 국민의 기본권과 자유가 위협당할 위험도 커지게 된다. AI 기술의 발전이 그에 대한 관리, 감독과 함께 가야 하는 이유이다.
지난달 22일부터 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법’(약칭 ‘AI 기본법’)이 시행되었다. 세계 최초로 AI 전략, 산업 진흥, 규제를 하나의 법률로 통합한 기본법이라고 한다. AI 기본법의 주요 목적은 크게 세 가지다. 첫째, 국가 AI 경쟁력 강화와 산업 진흥이다. 연구개발, 표준화, 데이터 인프라, 전문 인력 양성과 스타트업 지원 등을 국가 차원에서 추진할 수 있게 했다. 둘째, AI 기술의 안전성과 신뢰 확보를 위한 방안을 마련했다. ‘고영향 인공지능(High-Impact AI)’과 ‘생성형 인공지능(Generative AI)’을 나누어 정의하고, 이들 AI가 인간의 생명·안전·기본권에 영향을 미칠 수 있는 경우에는 투명성 확보 의무, 안전성 확보 의무, 영향 평가 의무 등을 부과했다. 이제 AI로 만든 결과물에는 워터마크 등 AI 생성이라는 표시를 해야 하고, 고영향 AI를 제공하는 사업자는 위험 식별과 완화 조치, 사용자 보호 조치를 마련해야 한다. 셋째, AI 거버넌스 체계 구축이다. AI 기본법은 대통령을 위원장으로 하는 국가 AI 위원회를 명문화하고, AI 안전연구소 등 전문 기관을 설립해 정책과 안전기준 연구를 수행하도록 했다.
AI 진흥과 규제의 기본 골격이 될 AI 기본법이 제정된 것은 다행인 일이지만, 그 규제 기준이 모호하고 개인정보 침해나 딥페이크 등 새로운 유형의 AI 범죄 피해에 대한 보호 조치가 여전히 미흡하다는 비판도 존재한다. 계속해서 법을 수정하고 추가하며 발전시켜 나가야 할 부분이다. AI에게도 헌법은 필요하다. 이제 우리는 AI가 인간의 삶에 영향을 미치는 것들에 대해 끊임없이 헌법적 기준을 대입해 보아야 한다. 기술이 아무리 발전해도 “모든 국민은 인간으로서의 존엄과 가치를 가지며, 행복을 추구할 권리를 가진다”는 명제보다 앞설 수 없음을 잊지 말자.
/김세라 변호사
△고려대 법과대학, 이화여대로스쿨 졸업 △포항 변호사김세라법률사무소 대표변호사