
바야흐로 ‘딸깍’의 시대다. 신입사원도 베테랑 못지않은 보고서를 뽑아내고 영어가 약한 직원도 외국 거래처에 매끄러운 메일을 보낸다. 노련한 컨설턴트는 한나절 걸리던 시장 분석을 한 시간 만에 끝내고 마케터는 광고 카피 수십 개를 한자리에서 비교한다. 프롬프트를 입력하고 딸깍 한 번이면 한 시간 걸릴 일이 5분 안에 끝난다. 상황이 이러하니 AI를 쓰지 않으면 오히려 일을 비효율적으로 한다는 인상을 줄 정도다.
그런데 이런 경험은 없는가. 처음 받아볼 때는 꽤 그럴듯해 보이던 보고서가 한 줄 한 줄 자세히 읽다 보면 어딘가 핀트가 맞지 않고 결국 처음부터 다시 손을 봐야 했던 경험. 우리는 정말 인공지능(AI)을 잘 쓰고 있는 걸까.
최근 ‘AI 슬롭(AI Slop)’이라는 용어가 빠르게 퍼지고 있다. ‘슬롭’은 원래 돼지에게 주는 음식 찌꺼기, 즉 양만 많고 가치 없는 것을 뜻한다. AI가 쏟아내는 영양가도 차별성도 없는 산출물에 딱 맞는 비유다. 다만 한 가지 다른 점은 AI 슬롭의 첫인상은 매끄럽고 논리적으로 보인다는 것이다. 그래서 검증 없이 그대로 받아들이기 쉽고 거기서부터 문제가 시작된다.
◆AI를 너무 믿을 때 조직에는 세 가지 일이 벌어진다
첫째, 모두가 비슷한 답을 내놓는다. 워싱턴대 연구진이 흥미로운 실험을 했다. 챗GPT에 24개의 시 형식, 40개의 주제로 약 2880편의 시를 생성하게 한 뒤 실제 시인들의 작품과 비교 분석했다. 결과는 분명했다. AI가 쓴 시는 인간이 쓴 시보다 훨씬 더 균질했다. 운율, 4행 구조, 1인칭 복수 시점, 심장, 포옹, 메아리, 속삭임 같은 특정 어휘. AI는 형식이 다양해도 안전한 평균값으로 수렴했다.
시의 영역에서만 일어나는 일이 아니다. 보고서, 마케팅 카피, 광고 슬로건, 사업 기획까지 모두가 같은 도구에 비슷한 프롬프트를 입력하면 나오는 결과물도 닮아갈 수밖에 없다. 한 콘텐츠 전문가는 이를 ‘경쟁적 동질화(Competitive Sameness)의 함정’이라고 표현했다. 우리 팀이 챗GPT로 만든 보고서와 경쟁사가 챗GPT로 만든 보고서가 본질적으로 비슷해진다. 둘 다 매끄럽고 둘 다 통계적으로 최적이며 그리고 둘 다 기억에 남지 않는다.
차별화는 ‘평균을 잘 내는 능력’에서 나오지 않는다. 평균에서 의도적으로 벗어나는 능력에서 나온다. AI가 잘하는 것은 평균을 잘 내는 일이고 인간이 해야 할 것은 평균에서 벗어나는 일이다. 모두가 AI에 의지하는 시장에서는 ‘AI를 어떻게 잘 쓰느냐’가 아니라 ‘AI가 만들어낸 평균값에 무엇을 더하느냐’가 진짜 경쟁력이 된다.
둘째, 잘못된 판단을 자신 있게 내린다. 2021년 11월 미국 부동산 플랫폼 질로우(Zillow)는 충격적인 발표를 했다. AI 기반 주택 매입 사업인 ‘질로우 오퍼스(Zillow Offers)’를 전면 중단한다는 내용이었다. 자체 개발한 AI 가격 예측 모델을 신뢰해 미국 전역에서 수천 채의 집을 공격적으로 매수해온 사업이었다. 알고리즘이 가격을 정확히 예측한다고 믿었기에 가능한 베팅이었다.
문제는 알고리즘이 보지 못하는 곳에서 터졌다. 팬데믹 이후의 금리인상, 지역별로 식어가는 수요, 리노베이션 자재와 인력 부족. AI는 과거 데이터의 패턴은 잘 읽었지만 패턴 밖의 변수는 읽지 못했다. 결과는 가혹했다. 약 5억 달러에 달하는 재고 평가 손실, 전체 인력의 25% 감원. 한때 480억달러였던 시가총액은 9개월 만에 160억 달러로 무너졌다.
질로우 사례가 주는 교훈은 분명하다. AI는 데이터 안의 패턴은 잘 읽지만 데이터 밖의 맥락은 읽지 못한다. 시장 분위기, 인물 관계, 타이밍, 업계의 암묵지. 이런 변수들은 알고리즘의 시야 밖에 있다. 그것을 읽어내는 것은 결국 사람의 일이다. 그런데 AI의 분석이 너무 매끄러워 보일 때 사람들은 종종 그 한계를 잊는다.
셋째, 생각하는 힘이 무뎌진다. 칼을 쓰지 않으면 무뎌진다. 사고력도 마찬가지다. 지난해 마이크로소프트와 카네기멜론대 공동 연구진이 발표한 보고서가 이를 직접 보여준다. 생성형 AI를 주 1회 이상 업무에 사용하는 지식노동자 319명을 추적해 936건의 실제 사용 사례를 분석한 결과 AI를 신뢰하는 사람일수록 비판적 사고를 덜했다. 반면 자기 역량에 자신감이 있는 사람일수록 AI의 답을 더 의심하고 더 검증했다. 같은 도구를 쓰는데 결과가 갈렸다.
비슷한 시기 MIT 미디어랩의 실험은 더 직접적이다. 4개월간 AI에 의존해 글을 쓰던 참가자들에게 도구 없이 같은 주제로 글을 쓰게 했더니 78%가 자신이 방금 쓴 문장조차 제대로 인용하지 못했다. 연구진은 이 현상을 ‘인지적 부채’라고 이름 붙였다. 당장의 편리함을 빌리는 대신 비판적 사고력을 담보로 잡혔다는 뜻이다.
조직 현장에서 이 부채가 가장 위험한 자리는 리더의 자리다. 팀원이 AI로 작성한 매끄러운 보고서를 가져온다. 리더는 빠르게 훑어보고 통과시킨다. 그런데 회의에서 누군가 한 단계 깊은 질문을 던지는 순간 보고를 가져온 팀원도, 보고를 받은 리더도 답하지 못한다. 둘 다 그 결론을 이해한 것이 아니라 수용했을 뿐이기 때문이다. 이해와 수용의 차이는 평소엔 보이지 않다가 결정적인 순간에 드러난다. 그리고 그 순간에는 이미 늦다.
◆생각의 주인은 누구인가?
AI를 배척하라는 이야기가 아니다. 그럴 수도 없거니와 그래서도 안 된다. 핵심은 ‘생각의 주인’이 누구인지를 잃지 않는 것이다. 사람이 AI를 도구로 부리는가, 아니면 AI에 생각의 주도권을 넘긴 채 그 산출물을 받아만 오는가. 이 차이가 시간이 쌓이면 판단력의 차이가 되고, 결과물의 차이가 되고, 결국 사람의 차이가 된다.
생각의 시작은 사람이어야 한다. AI에게 답을 받기 전 먼저 자기 머리로 한 번 생각을 정리하는 것이다. 그 문제의 본질이 무엇인지, 내가 모르고 있는 것은 무엇인지, 어떤 변수가 결정적인지. 이 과정 없이 곧바로 AI에 던지면 받아오는 답은 이미 내 사고가 아니라 AI의 사고다. 사람이 먼저 생각의 틀을 잡은 뒤에 AI를 도구로 호출해야 AI는 비로소 진짜 도구가 된다.
AI의 산출물이 나왔을 때도 곧바로 받아들이지 않는 습관이 필요하다. 그때 던질 만한 질문은 다음과 같다.
①“AI가 없었더라도 나는 이 결론에 도달했을까?” 답이 ‘아니오’라면 그 결론은 아직 내 것이 아니다. 한 번 더 들여다봐야 한다.
②“이 분석의 가장 큰 약점 3가지는 무엇인가?” 같은 AI에게 곧바로 반론을 시키는 것이다. AI의 동의보다 AI의 반론이 사고를 깨운다.
③팀원이 가져온 보고서를 받을 때다. “이 결론을 자네 언어로 다시 설명해 보겠나?” 자기 언어로 설명하지 못하는 결론은 책임질 수 없는 결론이다.
AI가 더 많은 일을 해줄수록 사람이 더 잘해야 하는 일이 분명해진다. 단순 반복 실행은 AI에 넘어가지만 AI를 더 깊이 쓰는 일, 그 산출물을 우리 맥락에 맞게 다듬는 일, 평균값을 넘어서는 한 끗을 만들어내는 일은 모두 사람의 몫이다. 오히려 사람의 자리는 좁아진 게 아니라 더 까다로워졌다.
결국 진짜 차이는 AI를 얼마나 많이 쓰느냐가 아니라 AI에 무엇을 더하느냐에서 나온다. 도구가 정교해질수록 그 도구를 다루는 사람의 감각이 더 뾰족해져야 한다. AI가 빠르게 답을 내놓는 시대일수록 그 답 앞에서 한 번 더 멈춰 서는 사람이 결국 진짜 답에 가까이 간다.
김민경 IGM세계경영연구원 인사이트연구소장