구글 CEO "AI 기술, 무기 개발·부당 감시에 사용 안 한다"

입력 2018-06-08 08:56
구글 CEO "AI 기술, 무기 개발·부당 감시에 사용 안 한다"

"화재 예측 등 시급한 문제 해결 지원…정부 프로젝트도 선별 수주"

(서울=연합뉴스) 권혜진 기자 = 구글 직원들이 인공지능(AI)의 군사적 이용에 반대하는 캠페인을 대대적으로 진행하자 구글 최고경영자(CEO)가 AI 소프트웨어를 무기나 부당한 감시에 사용하지 않겠다는 답을 내놓았다.

순다르 피차이 구글 CEO는 7일(현지시간) 회사의 AI 정책을 설명하는 블로그를 통해 "무기에 사용하려고 AI를 개발하는 것이 아님을 분명히 하고 싶다"며 이같이 밝혔다고 AFP·로이터통신이 보도했다.

그는 구글이 AI를 사용하는 것은 "사람들의 시급한 문제 해결을 돕기 위해서"라며 화재 예측이나 농가 지원, 질병 분석 등을 예로 들었다.

또한 AI 프로그램은 "사회에 도움이 되고, 불공정한 편견 조장을 막기 위한" 애플리케이션을 위해 설계된 것이라며, 한발 더 나아가 "전반적으로 피해를 유발하거나 일으킬 가능성이 있는" 그 어떤 기술도 사용하지 않겠다는 입장을 밝혔다.





회사가 이같은 방침을 공식적으로 발표함에 따라 구글과 미국 국방부가 손잡고 진행 중인 공동 프로젝트에 대한 직원들의 반대 시위도 수그러들 전망이다.

피차이 CEO는 이에 따라 정부 프로젝트도 인터넷 보안이나 군사 모집, 수색·구조 등의 분야에서 수주하겠다고 밝혔다.

피차이 CEO는 "강력한 기술인 만큼 사용에서도 강력한 문제 제기가 있을 수 있다"며 "AI를 어떻게 개발해 사용하느냐의 문제는 미래에 상당한 영향을 미치며 AI 분야 선도자로서 올바르게 해야 한다는 깊은 책임감을 느낀다"고 덧붙였다.

고성능 컴퓨터가 성능과 비용 면에서 혁신을 이루면서 최근 수년간 국방이나 보건 등의 산업 분야에서 AI 기술이 적극적으로 활용되고 있다.

AI 기술은 인간보다 빠른 속도로 방대한 데이터를 분석, 특정한 패턴이나 이상 현상을 찾아내고 궁극적으로 미래를 예측하는 기능을 지원한다.

예컨대 AI 시스템을 이용하면 그 어떤 군사전문가보다 정확한 드론 공격이 가능하며 온라인에서 오간 방대한 대화 속에서 반체제 인사를 찾아낼 수도 있다.

특히 구글 등 주요 IT 기업들이 이러한 기능을 수행하는 AI 도구 개발과 관련해 선두를 달린다.



그러나 AI 기술이 전쟁 등에 활용될 수 있다는 점에서 학계와 구글 직원들 사이에선 반대 목소리가 나온다.

이미 4천600명이 넘는 구글 직원들이 국방부와의 계약 취소 청원에 서명했으며 최근 몇 주 동안 최소 13명이 이 문제에 우려를 표하며 퇴사 의사를 밝혔다.

로이터통신이 입수한 이메일에 따르면 이미 구글 이사회 소속 위원 9명이 AI 규정에 관한 초안을 마련했다.

초안 내용 중에는 신체적 부상 또는 "국제적으로 인정되는 규칙이나 인권 기준에 위배되는 감시활동"과 관련이 있는 AI 애플리케이션 개발은 추진하지 않는다는 내용이 포함됐다. 이익보다는 중대한 위험을 초래할 가능성이 큰 경우도 제외된다.

워싱턴대의 라이언 칼로 기술법 담당 교수는 구글의 방침에 대해 "폭력이나 전체주의적인 감시활동을 가능하게 지원하지 않는다는 분명한 성명이라는 점에서 의미 있다"고 평했다.

lucid@yna.co.kr

(끝)

<저작권자(c) 연합뉴스, 무단 전재-재배포 금지>