
"스마트스피커를 생성형 인공지능(AI)인 알렉사플러스(+)로 업그레이드해서 기대가 컸어요. 그런데 실제로는 불 하나도 제대로 못 켜네요."
최근 미국 온라인 커뮤니티 레딧에서 큰 공감을 얻은 게시글이다. "TV를 켜고 끄는 가장 일상적인 기능조차 제대로 작동하지 않았다" "알렉사+를 기존 버전으로 복구시켰다"라는 사용자들의 후기가 이어졌다.
테크전문매체 더버지는 23일(현지시간) 이러한 반응을 전하며 "생성형 AI 비서가 스마트홈에 등장하면서 큰 기대를 모았지만 현실은 달랐다"고 지적했다. 사람같은 지능을 갖게 된 AI가 집안 살림을 척척 도와줄 것이라는 장밋빛 전망이 실망으로 되돌아온 셈이다.
전문가들은 생성 AI가 간단 작업을 수행하지 못하는 이유는 대규모언어모델(LLM)의 기본 작동원리에 있다고 본다. 마크 리들 조지아공과대 컴퓨터상호작용학과 교수에 따르면 기존 알렉사는 '템플릿 매칭' 기술을 사용했다. 이는 사전에 학습된 키워드와 일치하는 이미지나 음성이 입력되면 일대일로 매칭되는 작업을 수행하는 방식이다.
반면 LLM의 근간인 트랜스포머 모델은 확률론적으로 적합한 응답을 출력하기 때문에 매번 다른 응답이 나오기도 한다. 리들 교수는 "LLM은 훨씬 더 많은 것을 이해하고 다양한 방식으로 소통할 수 있지만 그만큼 해석 상의 오류 가능성도 커졌다"라고 설명했다. "조명을 더 어둡게 하고 실내 온도를 더 높여줘" 등 복잡한 문장은 이해할 수 있지만 조명을 끄고 켜거나 노래를 재생하는 등 반복적으로 쓰는 기능의 일관성이 떨어진 것이다.
그럼에도 아마존 등이 LLM을 도입한 스마트홈 기기를 내놓는 것은 그 잠재력이 크기 때문이다. 드루브 자인 미시간대 컴퓨터공학과 교수는 "테크기업들은 항상 제품을 빠르게 출시하고 데이터를 수집한 후 개선하는 방식을 고수해왔다"라고 설명했다. 초기 사용자들의 사용 데이터를 발판 삼아 AI 기기의 정확도를 높이는 전략이라는 분석이다.
신뢰성과 일관성이 중요한 기업에서는 LLM 대신 과거의 자동화 방식을 재도입하는 움직임이 감지된다. 디인포메이션에 따르면 고객관계관리(CRM)기업인 세일즈포스의 산즈나 파루레카르 제품 담당 수석부사장은 최근 고객들에게 "우리 모두는 1년 전만 해도 LLM에 더 큰 신뢰를 갖고 있었지만 (자사 AI에이전트인) 에이전트포스 소프트웨어의 신뢰성을 높이기 위해 기본적인 '결정론적 자동화' 방식을 사용한다"고 밝혔다. LLM의 확률론적 추론이 아니라 미리 정의된 지침에 따라 결정을 내리는 기존 방식을 도입한다는 뜻이다.
디인포메이션에 따르면 세일즈포스 고객사들은 에이전트포스가 지시한 8개 명령의 절반만 이행하거나, 설문조사를 보내지 않는 등 문제가 발생했다고 전했다. 이에 보안 카메라 기업인 비빈트는 설문조사를 고정적으로 보내는 '확정적 트리거' 방식을 채택했다. 이처럼 테크업계에서는 LLM이 사람의 두뇌 역할을, 기존 자동화 방식이 팔·다리 역할을 하듯 업무를 나누는 '에이전틱 워크플로우'를 도입하는 기업도 늘고 있다.
김인엽 기자
