한경 로앤비즈의 'Law Street' 칼럼은 기업과 개인에게 실용적인 법률 지식을 제공합니다. 전문 변호사들이 조세, 상속, 노동, 공정거래, M&A, 금융 등 다양한 분야의 법률 이슈를 다루며, 주요 판결 분석도 제공합니다.
며칠 전, 지인이 이런 말을 꺼냈다. 이번 제주도 여행은 ChatGPT한테 다 맡겼다고. 숙소도, 렌터카도, 밥집도, 심지어 동선까지 전부. 그 말을 들으며 필자는 잠깐 멈칫했다. 편하겠다는 생각이 먼저 들었지만, 곧 이어 불편한 질문이 하나 따라왔다. AI가 추천한 그 숙소, 정말 그 지인에게 가장 좋은 선택이었을까? 아니면 AI와 제휴 관계에 있는 혹은 AI를 만든 회사와 모종의 이해관계가 얽힌 어느 숙박업체가 알아서 선택된 것은 아닐까?지인은 그 질문 자체를 생각해본 적이 없다고 했다. AI가 골라줬으니 당연히 좋겠지라는 막연한 신뢰가 있었을 뿐이다. 그 신뢰가 어디서 왔는지, 그 추천 뒤에 누구의 이해관계가 있는지는 아무도 묻지 않는다.
글로벌 시장조사기관인 Grand View Research와 MarketsandMarkets 등은 글로벌 AI 에이전트 시장이 2030년까지 약 500억 달러 안팎으로 성장할 것으로 전망한다. 이제 AI가 인간의 선택을 대신하는 시대가 왔다. OpenAI의 Operator, 구글의 Gemini Agent, 애플의 차세대 Apple Intelligence는 사용자 대신 항공권을 예약하고, 쇼핑몰에서 상품을 장바구니에 담고, 음식을 주문한다. 우리는 더 이상 검색하지 않는다. 결정 자체를 AI에게 맡길 뿐이다.
이미 우리 일상 깊숙이 들어온 AI 에이전트. 그 영향력이 커질수록 설계 방식에 내재된 이해충돌의 문제도 함께 커진다. 이것은 의심 많은 법률가들만의 기우가 아니다. 구글·애플·아마존 등 빅테크를 상대로 한 각국의 반독점 소송과 규제 당국의 조사가 이미 같은 우려를 공유하고 있기 때문이다.
'잘못된 추천'에서 '존재의 삭제'로
검색창에 단어를 입력하고 스크롤을 내리던 시대에도 독점의 문제는 이미 있어왔다. 포털이 뉴스를 배열하는 방식이 여론을 좌우했고, 검색엔진이 자사 서비스를 상단에 올리는 방식으로 경쟁은 늘 왜곡됐다. 구글은 유럽에서 수조 원의 과징금을 맞았고, 쿠팡도 자사 PB 상품을 검색 상단에 올렸다는 이유로 공정거래위원회로부터 1600억 원대 과징금을 부과받은 바 있다. 그러나 그 시대의 횡포는 기껏해야 잘못된 추천 정도였다. 소비자는 화면을 조금 더 스크롤하면 다른 선택지를 언제든 찾을 수 있었다. 경쟁이 완전히 봉쇄된 것은 아니었던 것이다.그러나 프롬프트 한 줄로 모든 의사결정과 거래가 조용히 완결되는 AI 에이전트 시대는 차원이 다르다. AI 에이전트는 단 하나를 골라 즉각 행동으로 옮긴다. 소비자가 비교할 틈도 없이, 클릭 한 번 없이 거래가 완결된다. 과거 플랫폼의 횡포가 경쟁자를 검색 결과 뒷페이지로 밀어내는 것이었다면, AI 에이전트의 횡포는 다른 대안의 존재 자체를 지워버리는 것이다.
1등과 2등의 차이가 아니라, 1등과 존재하지 않음의 차이다. 검색창에 단어를 입력하고 스크롤을 내리던 시대의 경쟁 지형이 AI 에이전트 시대로 넘어옴에 따라, 독점의 양상과 자사 우대의 파괴력이 질적으로 변화하고 있는 것이다.
이해충돌의 구조가 이미 만들어지고 있다
문제는 이 AI들이 결코 중립적이지 않다는 데 있다. OpenAI는 마이크로소프트나 애플과 긴밀한 파트너십을 맺고 있다. 구글 에이전트가 호텔을 추천할 때, 구글 호텔 서비스에 등록된 파트너 업체가 유리할 수 있다는 점은 누구나 의심이 가는 대목이다.
애플 인텔리전스가 음식을 주문할 때, 수수료 계약을 맺은 배달 플랫폼이 먼저 선택될 가능성은 없을까. 미국 법무부는 구글 반독점 소송에서 구글의 AI 관련 투자 파트너십과 자사 우대 가능성을 문제 삼고 있으며, AI 에이전트를 통한 계열 서비스 우선 추천 가능성도 구제 조치 논의에서 비중 있게 다뤄지고 있다. 편리함이라는 달콤한 미명 아래, 소비자의 선택권이 거대 AI 기업의 경제적 인센티브에 조용히 종속되고 있다.더 큰 문제는 이 구조가 기존 경쟁법의 언어로는 포착되지 않는다는 점이다. 알고리즘 규제는 검색 결과의 순서를 따지는 방식으로 설계되어 있다. 그러나 AI 에이전트가 단 하나의 답을 내놓는 구조에서는 편향을 입증할 비교 대상 자체가 사라진다. 소비자는 자신이 최선의 선택을 받았는지 알 방법이 없고, 다른 선택지가 존재했는지조차 모른다. 결국 알고리즘 블랙박스를 투명하게 개방하고, 그 속에 있는 이해충돌 구조를 백일하에 드러내는 것만이 유일한 해법이다.
선제적인 규제 체계가 필요하다
해법의 방향은 세 가지다. 첫째, AI 추천에 제휴 수익이 발생하는지를 소비자에게 의무적으로 공시해야 한다. 인터넷 광고의 AD 표시처럼, "이 추천에는 파트너십이 있습니다"라는 한 줄이 따라붙어야 한다. 공시 없는 이해충돌은 기만이다.둘째, 추천 근거 설명 의무(Explainability)다. EU의 AI법(AI Act)은 고위험 AI 시스템에 가장 강도 높은 설명 가능성·투명성 의무를 부과하는 한편, 챗봇·추천 시스템 등 제한적 위험이 있는 AI에 대해서도 AI 사용 사실 고지 등 일정한 투명성 의무를 부과한다. 한국도 이 방향으로 빠르게 나아가야 한다.
셋째, 공정거래위원회가 AI 에이전트를 온라인 플랫폼 공정화법의 규율 범위 안으로 명시적으로 포섭하는 해석 또는 입법이 시급하다. 현행법은 AI가 직접 거래를 완결하는 구조를 상정하고 있지 않다. 기술이 법보다 한발 앞서 나가는 지금, 규제의 공백을 메우는 작업이 시급하다.
대한민국 입법 및 경쟁 당국은 기술의 진보가 시장의 역동성과 소비자의 후생을 질식시키는 새로운 독점의 도구로 전락하지 않도록, 관련 법을 정비해서 정교하고 선제적인 규율체계가 구축될 수 있도록 즉각 나서야 한다.
편리함은 소비자의 몫이어야 하고, 그 편리함 뒤에 숨은 이익은 투명하게 드러나야 한다. AI가 인간의 선택을 대신하는 시대가 될수록 그 선택의 근거를 밝히는 것은 단순히 기술의 문제를 넘어선 공정성의 문제가 되기 때문이다.