지난 15일 막을 내린 세계 최대 IT·가전 전시회 ‘CES 2021’은 인공지능(AI)에 대한 새로운 기대를 부르기에 충분했다. 아침에 일어나 저녁에 눈 감는 순간까지 AI는 마치 ‘만물’에 깃든 영혼처럼 우리의 일상과 함께할 날이 머지않았다는 점을 확인해줬기 때문이다. ‘AI 전환(AI transformation)’은 이미 곳곳에서 변화의 소용돌이를 일으키고 있었다.
장밋빛 미래에 대한 기대가 컸기 때문일까. 벌써부터 만만찮은 우려가 터져나오고 있다. 한국경제신문이 CES 2021 기간에 맞춰 연 ‘CES 2021 특별 웨비나’에서도 우려가 감지됐다. 때마침 불거진 AI 챗봇 ‘이루다’ 논란이 사회를 양분한 것에 대해 참석자인 국내 AI대학원장들은 “완전한 AI란 존재할 수 있는가”란 화두를 던지는 것으로 의견을 대신했다. 최고의 석학들은 갑론을박 대신 해답을 숙제로 남겼다.
‘AI를 고도화한다’는 것은, 수천억 개의 사전 검열 불가능한 데이터를 학습시키는 것이다. AI가 사람과 같이 사고하고 말하는 방법은 결국 얼마나 많은 사용자 데이터를 학습하느냐에 달렸다. 문제는 방대한 양의 데이터에서 발생한다. 개발자가 큰 틀에서 부정적인 영향을 제어할 수는 있겠지만, 주의를 기울이지 못한 부분은 어김없이 발생한다. 가치판단조차 어려운 데이터가 끼어드는 건 물론이다. 이는 인공신경망 기술이 태생부터 지닌 한계이자, 앞으로 수많은 노력을 기울여야 넘을 수 있는 장벽이기도 하다.
‘서비스 중단’으로 끝맺음한 챗봇 사태에서 전문가들이 아쉬움을 나타낸 것도 같은 맥락이다. 조성배 연세대 AI대학원장은 “연구자가 ‘바른 기준’을 학습시키려 노력해도, 법철학·도덕·선악의 개념과 같이 인간도 분별이 어려운 고차원 영역은 AI가 배우기 어렵다”고 했다. 사람만 하더라도 10년 이상의 정규 교육과정을 통해 사회화 규범을 익히는데, 우리가 AI에 기대하는 게 너무 과할 수 있다는 것이다.
결국 시작점은 AI가 ‘기계’임을 인정하는 것부터인 듯하다. 차상균 서울대 데이터사이언스대학원장은 “과대포장된 ‘스트롱 AI(strong AI)’에 대한 꿈을 버려야 한다”고 했다. AI에 대한 사회 전반의 시각이 현실 기술과 괴리가 있다는 뼈아픈 지적이다. 이미 2019년 유럽연합(EU) 집행위원회는 ‘신뢰할 수 있는 인공지능 가이드라인’을 발표하며 최종 의사결정 단계에서 오히려 인간의 역할이 중요함을 분명히 했다.
선악을 판단할 수 없는 ‘도구’를 완성하기 위해선 ‘인간’의 노력이 더 많이 필요한 것 같다. 개발자의 연구, 데이터를 만드는 사용자들의 이용 윤리, 그리고 정부의 역할도 중요하다. AI의 쓰임새를 현실적으로 고민해야 함은 자명하다. 걸음마를 하는 도구에 사람이길 강요하는 것은 허상이다.
뉴스