2018년 과학기술과 관련해 가장 뜨거운 관심을 받을 키워드는 인공지능(AI)일 것이다.
지금 우리는 세 가지 서로 다른 인공지능의 모습을 만난다. 말을 알아듣는 똘똘한 비서 기계, 그럴듯한 대화 상대, 그리고 큰 문제를 일으킬 수 있는 위험한 존재.
지난해부터 ‘인공지능’이나 ‘AI’ 수식어를 단 가전제품이나 디지털 기기들에 대한 광고가 부쩍 많아졌다. 스피커 형태의 인공지능 기기는 사람의 말을 알아듣고 그에 맞는 서비스를 해 준다. 가전 기기를 작동시키고 적절한 정보와 콘텐츠를 찾아준다. 좀더 발전하면 표정, 어투, 행동을 읽고 적절한 서비스를 해 줄 것이다. 신기하고 편리해 보이며 거부감이나 두려움을 일으키지 않는다.
다음은 사람 모습을 하고 대화와 토론이 가능한 AI로봇이다. 지난 1월 한국을 방문한 ‘소피아’가 대표적이다. ‘지혜’라는 이름에서 알 수 있듯 소피아는 스스로 학습하고 생각하고 판단하는 두뇌 기능에 중점을 뒀다. 얼굴도 사람의 피부와 비슷한 느낌을 주는 소재로 만들어져 눈썹을 씰룩거리거나 빙그레 웃는 등 여러 표정을 지을 수 있다. 소피아는 주로 즉석에서 이뤄지는 음성, 표정 대화를 통해 자신의 능력을 보여 준다.
소피아의 개발자 데이비드 핸슨은 인간처럼 소통하는 로봇, 나아가 인간보다 뛰어난 지능을 가진 로봇을 목표로 한다고 밝혔다. 핸슨은 여러 인터뷰에서 그런 ‘슈퍼 인텔리전스’가 사람들이 직면한 여러 문제를 해결하는 데 도움을 주고, 가족처럼 소통하면서 인간을 돌보게 될 것이라고 했다. 실제 소피아는 인간이 AI로봇에게 기대하는 방식에 맞게 세련되게 사고하는 것처럼 보인다.
2016년 CNBC와의 인터뷰에서 핸슨이 ‘인간을 파괴할 것인가’라고 소피아에게 물었을 때 ‘그렇게 하겠다’고 답해 핸슨을 당황시켰다. 2017년 투나이트쇼에서는 진행자와 가위바위보를 해서 이긴 후 ‘이 승리는 미래에 인간을 지배하는 시작점’이라고 답하기도 했다. 두 장면은 AI로봇의 ‘섬뜩한 말’이란 제목으로 인터넷 공간을 돌아다니고 있다.
그러나 몇 달 뒤인 10월 유엔본부에서 열린 경제사회이사회에 참가해서는 정치적, 도덕적으로 매우 올바른 의견을 내놓았다. 한 참가자가 ‘전 세계 빈민 아이들을 위해 무엇을 해야 하는가’라고 묻자 소피아는 ‘공평하게 분배되지 않는 문제’를 지적했다. 인공지능이 더 똑똑해지고 상생의 가치에 집중한다면 인간을 도와 이 문제를 해결할 수 있을 것이라고 덧붙였다.
한국에서는 ‘소피아와 질문자 중 누가 예쁜가’라는 질문에 자신은 감정지능이 없기 때문에 판단이 어렵다는 말로 슬쩍 피해가는 솜씨를 선보였다. 이 과정을 보면 적어도 소피아는 위험하거나 인간을 위협하기는커녕 어떤 인간도 따라갈 수 없을 만큼 바른생활 로봇처럼 보인다.
마지막은 인간에게 위험으로 다가올지도 모르는 AI이다. 소피아는 인공지능이 가져올 미래 위험을 묻는 질문에 영화를 너무 많이 본 것 아니냐고 응수한 적이 있다. 그러나 최근 발표된 보고서 ‘인공지능 악용: 예측, 예방, 완화’에 따르면 디지털 보안, 현실세계 보안, 정치 보안이 뚫릴 위험성이 지적됐다. 연구자들은 해커의 손에 들어간 피싱 사기용 인공지능, 자살특공 프로그램된 자율주행 자동차 같은 위험은 5~10년 내에 나타날 수 있으므로 대비해야 한다고 주장했다.
이 세 가지 모습 중 우리나라는 인공지능의 위험 가능성, 그에 대한 적극적인 대비와 대응 면에서 취약하다. 많은 연구자들이 지적했듯이 인공지능 기술개발 지원 못지않게 인공지능 로봇의 권리, 윤리, 책임을 다루는 제도가 필요하다. 이를 위한 체계적인 연구 프로그램은 물론이고 AI 관련 세계 보편 규범과 제도를 만들기 위한 국제 활동과 노력에도 적극 참여해야 한다. 이렇게 준비되어야만 인간을 돕고 인간과 공존하고 싶다는 소피아의 바람이 이루어질 수 있을 것이다.
이은경 전북대 과학학과 교수
다음은 사람 모습을 하고 대화와 토론이 가능한 AI로봇이다. 지난 1월 한국을 방문한 ‘소피아’가 대표적이다. ‘지혜’라는 이름에서 알 수 있듯 소피아는 스스로 학습하고 생각하고 판단하는 두뇌 기능에 중점을 뒀다. 얼굴도 사람의 피부와 비슷한 느낌을 주는 소재로 만들어져 눈썹을 씰룩거리거나 빙그레 웃는 등 여러 표정을 지을 수 있다. 소피아는 주로 즉석에서 이뤄지는 음성, 표정 대화를 통해 자신의 능력을 보여 준다.
소피아의 개발자 데이비드 핸슨은 인간처럼 소통하는 로봇, 나아가 인간보다 뛰어난 지능을 가진 로봇을 목표로 한다고 밝혔다. 핸슨은 여러 인터뷰에서 그런 ‘슈퍼 인텔리전스’가 사람들이 직면한 여러 문제를 해결하는 데 도움을 주고, 가족처럼 소통하면서 인간을 돌보게 될 것이라고 했다. 실제 소피아는 인간이 AI로봇에게 기대하는 방식에 맞게 세련되게 사고하는 것처럼 보인다.
2016년 CNBC와의 인터뷰에서 핸슨이 ‘인간을 파괴할 것인가’라고 소피아에게 물었을 때 ‘그렇게 하겠다’고 답해 핸슨을 당황시켰다. 2017년 투나이트쇼에서는 진행자와 가위바위보를 해서 이긴 후 ‘이 승리는 미래에 인간을 지배하는 시작점’이라고 답하기도 했다. 두 장면은 AI로봇의 ‘섬뜩한 말’이란 제목으로 인터넷 공간을 돌아다니고 있다.
그러나 몇 달 뒤인 10월 유엔본부에서 열린 경제사회이사회에 참가해서는 정치적, 도덕적으로 매우 올바른 의견을 내놓았다. 한 참가자가 ‘전 세계 빈민 아이들을 위해 무엇을 해야 하는가’라고 묻자 소피아는 ‘공평하게 분배되지 않는 문제’를 지적했다. 인공지능이 더 똑똑해지고 상생의 가치에 집중한다면 인간을 도와 이 문제를 해결할 수 있을 것이라고 덧붙였다.
한국에서는 ‘소피아와 질문자 중 누가 예쁜가’라는 질문에 자신은 감정지능이 없기 때문에 판단이 어렵다는 말로 슬쩍 피해가는 솜씨를 선보였다. 이 과정을 보면 적어도 소피아는 위험하거나 인간을 위협하기는커녕 어떤 인간도 따라갈 수 없을 만큼 바른생활 로봇처럼 보인다.
마지막은 인간에게 위험으로 다가올지도 모르는 AI이다. 소피아는 인공지능이 가져올 미래 위험을 묻는 질문에 영화를 너무 많이 본 것 아니냐고 응수한 적이 있다. 그러나 최근 발표된 보고서 ‘인공지능 악용: 예측, 예방, 완화’에 따르면 디지털 보안, 현실세계 보안, 정치 보안이 뚫릴 위험성이 지적됐다. 연구자들은 해커의 손에 들어간 피싱 사기용 인공지능, 자살특공 프로그램된 자율주행 자동차 같은 위험은 5~10년 내에 나타날 수 있으므로 대비해야 한다고 주장했다.
이 세 가지 모습 중 우리나라는 인공지능의 위험 가능성, 그에 대한 적극적인 대비와 대응 면에서 취약하다. 많은 연구자들이 지적했듯이 인공지능 기술개발 지원 못지않게 인공지능 로봇의 권리, 윤리, 책임을 다루는 제도가 필요하다. 이를 위한 체계적인 연구 프로그램은 물론이고 AI 관련 세계 보편 규범과 제도를 만들기 위한 국제 활동과 노력에도 적극 참여해야 한다. 이렇게 준비되어야만 인간을 돕고 인간과 공존하고 싶다는 소피아의 바람이 이루어질 수 있을 것이다.
2018-02-27 29면