인공지능의 윤리, 결국 사람 사이의 문제

입력 2016-09-02 17:36
이상은 기자의 Global insight

자율자동차·로봇 설계자도 인간
무한 신뢰·무한 책임 어려워
새 AI 윤리, 사회적 합의 필요


[ 이상은 기자 ] 지난 1일(현지시간) 미국 스탠퍼드대에서 ‘인공지능(AI)에 관한 100년 연구(AI 100)’ 첫 보고서를 냈다. 인공지능이 인간에게 어떤 영향을 끼칠 것인가에 관해 100년간 연구하려는 프로젝트다.

에릭 호르비츠 전 인공지능발전협회(AAAI) 회장이 이런 프로젝트가 필요하다는 아이디어를 냈다. 학계와 산업계의 AI 관련 연구진 17명이 지난 한 해 동안 ‘2030년의 보통 북미 도시 거주자에게 AI로 인해 어떤 변화가 생길까’를 주제로 논의했다.

이세돌 9단이 지난 3월 구글의 AI ‘알파고’와 바둑 대결에서 진 뒤로, 그렇지 않아도 불안해하던 사람들의 마음속에는 AI에 대한 공포가 더 커졌다. “로봇이 뭘 해도 사람보다 낫지 않을까. AI가 ‘깨어나서’ 터미네이터의 스카이넷(인간을 공격하는 AI)이 현실화될지도 모른다!”

100년 연구 프로젝트의 52쪽Ⅸ?첫 보고서는 그와 정반대 결론을 내고 있다. 연구진은 2001~2015년의 AI 발전 상황을 토대로 2016~2030년 전개 상황을 예측했다. 이들은 2030년 승용차·트럭·비행기가 자율주행할 것으로 예상하고, 로봇 청소기와 같은 각종 특화된 서비스 로봇이 흔해질 것으로 봤다. 일상어를 처리하는 기술이 발달해 교육 시스템이나 온라인 검색에도 AI가 훨씬 많이 쓰이고, 식품 공급 등 자원 배분 효율성이 높아져 저소득층 밀집 지역이 AI로 혜택을 볼 것이라고 했다. AI는 삶을 개선하는 멋진 척척박사란 것이다.

그러나 긍정적인 면 일색인 보고서에 대한 비판적 시각도 존재한다. AI 기술개발을 주도하는 몇몇 대기업의 관점에 포섭돼 있다는 것이다. 스탠퍼드대에 보고서를 만들자며 돈을 끌어온 호르비츠는 마이크로소프트(MS) 연구원이다.

기업들이 직접 AI 이슈를 주도하고 여론에 영향을 주려는 움직임은 뚜렷하다. 뉴욕타임스(NYT)는 스탠퍼드대 보고서 발표 시기와 맞물려 구글 모회사인 알파벳, 아마존, 페이스북, IBM, MS 등 5개 정보기술(IT) 대기업 연구진이 최근 AI 관련 단체를 설립하기 위한 모임을 가졌다고 보도했다.

기업 관계자들은 “AI 연구가 인간에게 해가 아니라 혜택을 주는 데 초점을 맞추도록 하기 위한 것”이라고 밝혔다. NYT는 정부가 AI 연구를 규제할 것을 우려해 기업들이 스스로 관련 기준을 짜려는 것이라고 분석했다.

물론 AI에 대한 공포는 지나친 점도 있다. 소설이나 영화와 달리 실제로 ‘AI가 자의식을 갖는 문제’를 고민하는 과학자나 공학자는 거의 찾아볼 수 없다. 스튜어트 러셀 미국 UC버클리 컴퓨터과학과 교수는 “AI의 주류 분야에서 자의식이나 감정을 연구한 논문은 단 한 편도 없다”고 지적했다.

스카이넷은 아직 떠올릴 필요가 없다. 그보다도 AI 윤리에 관한 논의가 본격화되는 지금 우리가 생각해야 하는 것은 자율주행차나 로봇처럼 ‘인간이 설계한 머리(AI)’에 얼마나 판단 권한과 책임을 부여할 것인가다. AI 알고리즘 개발자는 신이 아니고 인간이며, AI 이용자도 인간이다. 양쪽 모두 완전히 신뢰할 수도 없고 둘 중 하나만 무한책임을 지라고 하기도 쉽지 않다. 결국 사람 사이의 문제다. AI 윤리에 관한 논의를 ‘그들만의 리그’로 남겨두어선 안 될 것 같다.

이상은 기자 selee@hankyung.com