나상현 산업부 기자
고전적인 딜레마 하나가 자연스럽게 떠올랐다. 만일 이 무단횡단자를 피했을 때 탑승자인 내가 죽거나 크게 다칠 수밖에 없는 상황이라면 AI는 어떤 결정을 내려야 할까? 일대일 상황이라면 탑승자가 우선시돼야 할까? 만일 여러 명이거나 어린아이라면? 당장 내 상황이라 생각하니 선뜻 답이 나오지 않았다.
상황별로 보편적인 선택지를 통계로 내서 AI에 적용한다면 옳을까? 미국 MIT 연구진이 전 세계에 있는 4000만명에게 자율주행 AI가 보행자와 충돌하는 상황에서 어떤 그룹을 생존 우선순위에 두어야 하는지 물어본 적이 있다. 전반적으로 소수보단 다수의 사람들을, 젊은 사람보단 나이 든 사람을 우선시해야 한다고 답했다. 하지만 지역별로 쪼개 보면 우선순위가 다르게 나타났다. 예를 들어 북미·유럽권에선 젊은 사람을, 아시아권에선 나이 든 사람을 우선 보호해야 한다는 답변이 우세했다. 깊은 논의 없이 단순히 다수결의 원칙으로 정하고 끝낼 수 있는 문제는 아니라는 의미다.
AI 딜레마는 더이상 재밌게 생각해 보고 끝낼 교양서적 속 논리게임이 아니다. 이미 우리 사회 깊숙이 들어와 있는 현실이다. 많은 자동차 회사들이 최소 3년 내에 사람이 개입하지 않는 완전 자율주행차를 선보이겠다고 공언했고, 의료 영역에서도 AI 기술이 속속 도입되고 있다. 생명과 직결될 수 있는 AI 윤리에 관한 사회적 논의가 시급한 상황이다.
결국 AI와 함께 살아가고, AI를 이용하는 주체인 우리가 더욱 관심을 가져야 한다. 단지 AI를 제공하는 기업의 선의에만 맡겨 놓을 일이 아니다. 이미 해외에선 일반인도 쉽게 이해할 수 있도록 투명한 알고리즘으로 구성된 ‘설명 가능한 AI’(explainable AI)의 필요성이 활발히 논의되고 있다. 유럽연합은 2018년 발효한 일반정보보호규정에 관련 조항을 담기까지 했다. AI의 영향을 받는 모든 사람이 알고리즘을 감시하고, 윤리적으로 잘못됐다는 사회적 합의가 있다면 언제든 퇴출할 수 있어야 한다.
우리나라에선 아직 AI 윤리에 대한 논의가 활발하지 못한 것은 사실이다. 하지만 사회적 관심은 조금씩 커지고 있다. 지난해 AI 챗봇 ‘이루다’가 출시 한 달 만에 윤리적인 논란을 안고 서비스를 중단했던 것도 사용자들의 꾸준한 관심과 지적이 있어 가능했다. AI와 함께 하는 세상은 우리 스스로가 준비해야 한다.
나상현 산업부 기자
2022-03-25 29면