챗GPT 개발사인 오픈AI가 AI의 추론능력을 향상시키기 위한 새로운 기술을 개발하고 있다는 소식이 전해졌다.
12일(현지시간) 로이터통신은 해당 사안에 정통한 소식통과 지난 5월에 입수한 오픈AI 내부 문서 사본 등을 토대로 오픈AI 연구팀이 코드명 '스트로베리'(Strawberry·딸기)로 불리는 프로젝트를 통해 AI 모델의 추론 능력을 높이기 위한 연구를 진행하고 있다고 전했다.
소식통에 따르면 스트로베리 프로젝트는 이전에는 '큐스타(Q*)'로 불린 것으로 그 활동은 오픈AI 안에서도 철저하게 비밀로 유지돼왔다.
이 프로젝트의 목적은 오픈AI의 AI가 쿼리(질의문)에 대한 답변을 생성하는 데 그치지 않고, 미리 계획을 세워 독자적이고 안정적으로 인터넷을 탐색할 수 있게 하는 것이다.
문서에는 오픈AI가 목표로 하는 스트로베리의 기능으로 '장기과업'(LHT) 수행을 언급하고 있다. AI가 장기간에 걸친 일련의 행동을 미리 계획하고 수행하는 복잡한 과제를 해낼 수 있게 한다는 의미다.
오픈AI는 이를 위해 '심층연구'라고 부르는 데이터세트를 AI모델에 학습시키고 있다. 오픈AI는 스트로베리 프로젝트를 통해 자사 AI 모델의 추론 능력을 획기적으로 높이고자 한다고 이 소식통은 설명했다.
이 같은 추론 능력은 이전에 나온 AI모델은 보여주지 못한 수준이라고 로이터는 전했다.
해당 문서에는 스트로베리가 언제 공개되는지, 어떻게 이러한 능력을 구현하는지에 대해서는 언급하고 있지 않다.
하지만 오픈AI는 최근 수개월 동안 개발자들과 외부의 당사자들에게 상당히 발전된 추론 능력을 갖춘 기술을 선보이기 직전이라는 신호를 은밀하게 보냈다고 다른 관계자 4명이 전했다.
이중 한 관계자는 오픈AI의 생성 AI 모델을 "사후 훈련"하거나 일반적인 데이터로 "훈련을 마친" 기본 모델의 성능을 보다 높이도록 조정하는 특수한 방법이 스트로베리에 포함된다고 말했다.
이와 관련해 오픈AI는 전날 전체 직원 회의를 열어 AI 능력을 분류하는 새로운 5단계로 체계를 제시하고 자사가 현재 추론 능력을 갖춘 2단계에 와 있다고 밝혔다고 블룸버그 통신이 보도했다.
오픈AI는 이 회의에서 인간과 유사한 추론 능력을 가졌다고 주장하는 한 연구 프로젝트의 결과를 시연한 것으로 알려졌다. 로이터는 다만 해당 연구 프로젝트가 스트로베리인지는 확실하지 않다고 전했다.
소식통 중 한명은 스트로베리가 2022년 스탠퍼드대에서 개발된 '자가학습 추론기'(STaR)의 방법론과 유사하다고 말했다.
STaR 개발에 참여한 노아 굿먼 스탠퍼드대 교수는 STaR가 AI모델로 하여금 훈련 데이터를 반복적으로 생성하도록 해 혼자 힘으로 더 높은 수준의 지능에 도달하도록 할 수 있으며, 이론상으로는 인간 지능을 뛰어넘는 데에도 이용될 수 있다고 설명했다.
챗GPT 같은 대규모언어모델(LLM)은 방대한 텍스트 데이터를 학습해 그 어떤 사람보다도 빨리 내용을 요약하고 글을 쓰며 질문에 답할 수 있지만 사람이라면 직관적으로 알 수 있는 상식이나 인과관계 파악에는 한계가 있다. AI가 잘못된 정보를 그럴듯하게 제시하는 '환각'(Hallucination) 현상도 이 때문에 일어난다.
이러한 오류를 해결하기 위해서는 AI가 미리 계획해 예측하고 물리적 세계의 작동 방식을 반영하는 등 추론 능력을 갖춰야 한다고 전문가들은 보고 있다.
샘 올트먼 오픈AI 최고경영자(CEO)도 올해 초 AI에 있어 "가장 중요한 발전 분야는 추론 능력과 관련돼 있다"고 언급한 바 있다.
이와 관련, 굿먼 교수는 AI가 추론 능력을 갖추는 방향으로 가는 것이 "흥미진진하면서도 두렵다"면서 "상황이 계속 이런 방향으로 갈 경우 우리가 인간으로서 고민해야 할 심각한 부분이 있다"고 말했다.
(사진=연합뉴스)