더 나은 기술을 위해 인간의 창작물을 갈아 넣었다. 윤리적 판단도 함께. 최근 미국 인공지능(AI) 기업 앤스로픽이 수백만 권의 실물 책을 구매해 낱장으로 잘라낸 뒤 스캔해 AI에 무단 학습시킨 사실이 폭로됐다. 이른바 '프로젝트 파나마'다. "이 프로젝트는 전 세계 모든 책을 파괴적으로 스캔한다"는 내부 문서도 공개됐다. 대서양과 태평양을 잇는 파나마 운하처럼 대량의 정보를 막힘 없이 흐르게 하겠다는 야심은 혹시 갑문의 제어 없는 파괴적 급류인 걸까. 견제되지 않는 기술 권력은 우리를 어디로 데려가는 중일까.
최근 국내에 출간된 <AI 제국: 권력, 자본, 노동>은 오픈AI로 대표되는 기술 기업들을 '제국'에 비유하며 그 어두운 이면을 들여다보는 책이다.
저자 카렌 하오는 월스트리트저널 기자로 챗GPT가 돌풍을 일으키기 전인 2019년 오픈AI를 최초로 심층 취재한 인물이다. 이후 AI가 사회에 미치는 영향력을 보도해온 하오는 오픈AI 전·현직 직원을 포함해 약 260명과 총 300회 이상 인터뷰하고 수많은 문건을 검토한 끝에 이 책을 썼다. 저자 또는 팩트체킹팀이 당사자에게 해당 대화 내용을 몇 개월 간격으로 반복하거나 확인해 달라고 요청해 기억이 확실한지 검증했다.
책은 인류가 기술의 진보에 환호하는 사이에 후순위로 미뤄둔 환경적, 사회적 비용 문제를 꺼내 든다. 오늘날 기술 기업은 마치 식민지 시대의 제국주의 국가들이 피식민지의 천연자원을 수탈하듯 데이터를 광범위하게 무단으로 채굴한다. 그 과정에서 막대한 물과 전력을 소비한다.
오픈AI의 자체 시험에 따르면 GPT4가 80% 이상의 정확도로 지원하는 언어는 전체의 0.2%에 해당하는 15개 언어에 불과하다. 반면 AI가 폭력적인 답변을 생성하는 걸 방지하기 위해 케냐 등 개발도상국 노동자에게 야근을 강요하며 폭력적인 콘텐츠를 검토하도록 내몰았다.
오픈AI를 비롯한 'AI 제국'의 위험성은 그것의 의사결정 구조와 기술 발전 과정이 불투명하다는 데 있다고 봤다. 책은 "더욱 더 많은 고학력자가 챗봇을 위한 복화술사가 돼가고 있다"고 지적한다. "(생성형 AI라는) 특정한 형태의 AI가 주목받게 된 것은 물론이고 존재하게 된 것조차 결코 필연적이지 않았다. 그것은 의사결정 권한을 가진 소수의 사람이 내린 수많은 주관적인 결정의 결과일 뿐이다. 마찬가지로, 앞으로 나올 AI 기술 역시 미리 결정돼 있지 않다. 그렇다면 문제는 다시 거버넌스로 돌아간다. 누가 이 기술의 미래를 결정할 것인가?"
따라서 책이 주장하는 해답은 투명성을 강화하는 것이다. "지금껏 AI 제국들은 자신들의 지식재산권이라는 명목으로 모델을 만드는 데 들어간 자원을 숨김으로써 아무런 출처 표기도, 동의도, 보상도 없이 다른 사람들의 지식재산권을 훔쳐도 아무런 제재도 받지 않고 넘어갈 수 있었다. 기업들이 사용하는 훈련 데이터에 대한 가시성을 확보한다면 그러한 수탈과 착취적인 행태를 더욱 어렵게 만들 수 있다." 또한 AI를 둘러싼 허상과 신비주의를 걷어내기 위해 폭넓은 교육이 고루 이뤄져야 한다고 봤다.
책의 시선은 AI의 부정적인 측면에 쏠려 있다. 다만 저자의 주장과 진단에 동의하지 않더라도 인류 사회의 최대 변수가 된 AI를 다각도로 이해하기 위해 살펴봄 직한 문제 제기다. 하오는 '저자의 말'에 이렇게 적었다. "이는 어디까지나 오픈AI라는 일개 기업을 훨씬 넘어서는 더 큰 그림을 이해하기 위한 수단입니다. 그 큰 그림이란, 과학 발전을 향한 야망이 어떻게 공격적이고 이념적인 돈잔치로 변질됐는지, 그 과정에서 생긴 다면적이고 광범위한 환경적·사회적 영향이 무엇인지 살펴보고, 궁극적으로는 권력의 본질을 고찰해보는 것입니다." 이어 인류가 "사람과 지구, 그리고 민주주의를 지키는 새로운 AI 개념을 발전"시키기를 소망한다고 덧붙였다.
구은서 기자 koo@hankyung.com