“인공지능(AI)이 많은 분야에서 인간을 대체할 수 있다는 것은 착각일 뿐입니다. 결정과 이에 따른 책임을 지는 건 인간의 몫으로 남을 겁니다.”
루먼 초두리 휴메인인텔리전스 최고경영자(CEO) 겸 공동 설립자는 5일 서울 광장동 그랜드워커힐서울에서 개막한 ‘글로벌인재포럼 2025’에서 “기술은 인간을 대체하는 게 아니라 보조할 때 가장 효율적”이라며 인간의 능력을 보완하는 기술로서 AI의 역할을 강조했다. 초두리 CEO는 ‘알고리즘 윤리’ 분야를 개척한 AI 윤리 전문가로 통한다. AI가 인간의 존엄성과 민주주의적 가치를 강화하는 방향으로 발전해야 한다고 강조하는 데이터과학자이자 사회과학자다. ◇“AI는 욕망 없는 알고리즘일 뿐”초두리 CEO는 ‘공생의 조건’을 주제로 한 기조연설에서 “AI가 인간을 궁극적으로 대체하는 건 불가능하다”고 강조했다. 그는 “AI는 의도도 욕망도 없는 수학적 모델일 뿐”이라며 “AI에 판단과 통제를 넘기는 순간 기술의 실패가 일어날 수 있다”고 말했다. 인간이 기술을 통해 안락함을 누리는 게 아니라 또 다른 책임과 스트레스에 노출될 수 있다는 얘기다.
AI가 운행하는 자율주행 기술이 대표적인 사례다. 초두리 CEO는 “자율주행차가 등장하면서 사람들은 편안한 이동을 꿈꿨지만 현실은 다르다”고 말했다. 그는 “자율주행 중 사고가 나면 책임은 운전자가 져야 한다”며 “인간은 운전 스트레스는 그대로 받으면서 통제권만 잃어버린 상황에 놓이게 됐다”고 말했다. 기술에 통제권을 쥐여주면 인간은 기술이 초래한 부정적인 결과에만 대응해야 할 가능성이 있다는 것이다.
AI가 ‘평균의 함정’에 빠질 수 있다는 것도 초두리 CEO가 ‘AI 만능론’을 경계하는 이유다. 그는 “AI는 데이터 속에서 평균과 패턴을 찾아내는 데 탁월한 능력을 보인다”며 “개인화를 추구한다는 AI 모델도 사실은 모든 데이터를 모아 특정 범주에 넣고, 이 범주의 평균적인 인간은 무엇을 좋아할까를 추측하는 것”이라고 설명했다.
평균이 늘 정답일 순 없다는 게 초두리 CEO의 설명이다. 그는 1940년대 미국 공군 사례를 들었다. 초두리 CEO는 “미국 정부가 4000명 이상 조종사의 평균 신체에 맞춰 좌석을 만들라고 요구하자 아무에게도 맞지 않는 좌석이 탄생했다”며 “버튼으로 조절할 수 있는 자동차 시트를 제작해 문제를 해결해야 했다”고 말했다. 이어 “AI가 제대로 작동하려면 상황과 개인에게 맞춘 해답이 필요한데, 이는 알고리즘이 아니라 인간의 판단에 의해 이뤄질 수 있다”고 강조했다. ◇“AI 활용 역량 개발해야”초두리 CEO는 AI와 인간이 공생하는 해법으로 “AI를 활용하는 역량을 먼저 개발해야 한다”고 강조했다. AI를 단순히 사용하는 데서 그치지 않고 AI가 내놓은 결과를 해석하고 판단하는 문해력(리터러시)을 갖춰야 한다는 얘기다.
그는 AI 문해력을 기능적 문해력, 비판적 문해력, 수사적 문해력 등 세 가지로 설명했다. 기능적 문해력은 AI가 내놓은 결과가 사실과 맞는지 검증할 수 있는 능력이다. AI가 내놓은 결과를 수동적으로 따르는 게 아니라 이 정보가 맞는지 질문을 던질 수 있어야 한다는 게 핵심이다.
비판적 문해력은 AI가 의도한 대로 작동하는지를 판단하는 능력이다. 초두리 CEO는 “알고리즘이 학습하는 데이터가 편향돼 결과까지 편향된 건 아닌지 등을 검증해야 한다”고 설명했다. 수사적 문해력은 AI로 인해 사회가 어떤 영향을 받는지를 파악해야 한다는 개념이다. 초두리 CEO는 “AI가 누구에게 이익을 주고 위험이 되는지를 파악해야 한다”며 “기술로 인해 불평등이 심화하거나 약자에게 불리한 구조를 초래하지 않는지를 검증하는 능력이 필요하다”고 강조했다.
문해력을 기반으로 AI를 검증하고 보완할 수 있어야 한다는 게 초두리 CEO가 제시하는 ‘수리할 권리’의 핵심이다. 그는 “개발자뿐 아니라 다양한 사회 구성원이 참여해 AI 모델을 수정할 수 있어야 한다”며 “AI 평가를 통해 윤리적 취약점을 보완하는 게 알고리즘 개선에도 도움이 된다”고 강조했다.
나수지/원종환 기자 suji@hankyung.com