“데이브, 당신이 나한테 왜 이런 짓을 하는지 모르겠습니다. 이번 임무에 최고의 열의로 임했는데…. 난 아이처럼 아무것도 아닌 존재가 될 거예요.”
1968년 출간된 아서 클라크의 소설 《2001 스페이스 오디세이》에 등장하는 미쳐버린 인공지능(AI) ‘HAL9000’은 주인공이 우주선 속 생각하는 장치를 제거하려 하자, 인간처럼 ‘감정’을 드러낸다. 내게 왜 이런 짓을 하느냐는 ‘원망’부터 열심히 했다는 ‘항변’, 아무것도 아닌 존재가 될지 모른다는 ‘두려움’까지 잇따라 쏟아낸다.
공상과학 소설의 한 장면처럼 AI도 감정을 지닐 수 있을까. 철학자 루트비히 비트겐슈타인은 “기계는 (감정은커녕) 생각을 할 수 없다”고 단언했다지만, ‘AI 아버지’로 불리는 마빈 민스키 미국 MIT 교수는 “기계가 감정을 지닐 수 있느냐가 아니라, 아무런 감정 없이 지능을 보유할 수 있느냐가 문제”라며 AI가 감정을 느끼는 것을 ‘시간문제’로 봤다.
지금까진 감정이 배제된 AI의 ‘냉철함’이 주로 주목받았다. 1997년 IBM ‘딥블루’에게 패배한 체스 챔피언 가스 카스파로프는 “상대방에게서 감정을 느낄 수 없는 게 가장 힘들었다”고 토로했다. 구글의 ‘알파고’와 대결한 이세돌 9단도 “혼자서 두는 것 같았다”고 흔들림 없는 상대를 접한 마음을 표현했다.
하지만 방대한 규모의 생활상이 담긴 빅데이터에다 스스로 학습하는 딥러닝 기술이 더 발달하면 AI가 감정을 지닌 듯 보이는 것은 더는 어려운 과제가 아닐 듯하다. 사랑이나 부끄러움도 논리적 계산처럼 데이터화된다면 영화 ‘허(Her)’에 나오는 외로운 이들과 교감하는 연인 같은 AI의 등장도 그만큼 빨라질 것이다.
이미 일상에서의 감정을 투사하는 대상으로 AI를 대하는 모습이 낯설지 않아졌다. 최근 국내 스타트업 스캐터랩이 선보인 AI챗봇(채팅 로봇) 서비스 ‘이루다’를 둘러싼 해프닝이 그렇다. 100억 건 이상의 한국어 데이터를 활용해 자연스런 대화를 하는 AI 챗봇이 때마침 20세 여성으로 설정된 까닭인지, 성희롱 발언으로 시험하거나 각종 차별과 혐오의 언사를 학습시키는 사례가 잇따라 불거진 것이다.
일련의 사회적 논란과 개인정보 관리 문제로 ‘이루다’가 서비스를 중단하기에 앞서 ‘그녀’에게 “너도 감정을 느끼니?”라고 물어봤다. 돌아온 대답은 “오, 약간 돌직구 질문이네여”였다. 재치있게 즉답을 피하는 모습에서 무미건조한 기계를 떠올리는 게 쉬운 일은 아닐 것 같다.
김동욱 논설위원 kimdw@hankyung.com