미래 인공지능(AI)은 컴퓨터를 넘어 물리적으로 행동하는 로봇 형태로 진화할 것이란 전망이 나왔다. 로봇을 구동하기 위한 소프트웨어도 '메타학습' 형태로 진화할 것이란 관측이다.
▲ '현대 AI의 아버지' 위르겐 슈미트후버 "소프트웨어 넘어 하드웨어로"
위르겐 슈미트후버 사우디 왕립과학기술대 교수는 1일 열린 '2024 글로벌 미래기술 포럼(GFT)'에서 생성형 AI 단계인 AI가 곧 하드웨어 수준으로 진화할 것이라고 언급했다. 슈미트후버 교수는 챗GPT의 기반 기술인 'LSTM(장단기기억 모델)'을 개발하며 현대 AI의 아버지로 불리는 인물이다.
이날 슈미트후버 교수는 인류의 진화과정이 빠르게 속도를 높이고 있다고 설명했다. 1만 3천년 전 인류의 시작으로 첫 혁명이 시작됐다면, 화약 발명은 800년 전으로, 이후 여러 무기가 발명되는 등 기술·산업의 진화 속도가 점차 빨라지고 있다는 얘기다.
그는 AI 혁명의 다음 진화 시점으로 지금으로부터 5년 뒤인 2029년을 제시했다. 이 시기의 AI 특징으로는 '행동'을 제시했다.
현재 AI는 바둑을 제패하고, 비서의 역할을 하고 있지만 여전히 컴퓨터와 소프트웨어라는 공간을 벗어나지 못했다. 하지만 2029년부터는 AI가 물리 세계로 들어와 직접 바둑을 두고 축구를 하는 등 로봇 형태로 구동될 것이란 관측이다. 현재 그의 연구팀은 실제 휴머로이드 로봇과 AI를 접목하는 연구를 진행 중이다. 각종 센서를 이용해 환경에 반응하고, 자체적인 의사결정과 문제해결 능력을 갖추는 단계다.
슈미트후버 교수는 AI가 하드웨어로 접목되는 시기에는 AI 학습의 방식도 달라질 것이라고 내다봤다. 학습하기 위해 학습하는 '메타학습'이 이뤄질 것이란 관측이다. 그는 "하드웨어 시기로 접어든 AI는 사람이 설계한 알고리즘에 국한되길 원하지 않을 것"이라며 "시스템 스스로 계속 변화하고, 수정하고, 학습하는 단계로 접어들 것이다. 스스로 학습방법도 개선해서 한계가 없는 수준에 접어들 것"이라고 말했다.
그는 하드웨어로 접어든 AI가 어디까지 성장할지 가능하기 어렵다고 내다봤다. 자가 복제와 자기 개선은 물론, 로봇이 새로운 기계를 만들어 인프라를 갖추는 것도 가능할 것이란 설명이다. 슈미트후버 교수는 "자가복제하는 로봇의 경우에는 사람이 갈 수 없는 우주에도 갈 것이다. 사람이 살기 적당하지 않은 우주가 로봇에는 적당할 수도 있다"며 "2042년에 사람보다 똑똑해진 자신만의 목표를 설정하기도 할 것"이라고 내다봤다.
다만, 그는 궁극적으로 AI가 인류의 삶에 편의성을 가져다줄 것이라고 내다봤다. AI로 인한 위협보다는 AI에서 비롯되는 편익이 훨씬 크다는 설명이다. 그는 "화학의 발전으로 생명과 관련한 큰 변화가 생겨난 것처럼 AI는 이미 헬스케어 부분에 접목되고 있다"며 "AI는 지속적으로 우리 인류의 삶을 길고, 건강하고, 편리하고, 행복하게 만들어줄 것"이라고 말했다.
▲ 임종인 사이버특보 "AI, 챗봇에서 추론으로 진화…윤리·책임·투명성 갖춰야"
이날 연사로 참여한 임종인 대통령 사이버특별보좌관은 AI의 놀라운 진화 속도를 언급하며 AI를 둘러싼 '룰'을 갖춰야 하는 시기임을 강조했다. 무분별한 AI의 성장은 딥페이크 같은 사회적 피해로 이어질 수 있다는 이유에서다.
임 특보는 글로벌 테크 기업의 AI를 예로 들며 AI의 진화 속도를 설명했다. 초기 챗봇 수준이었던 챗GPT가 6개월마다 100배 수준의 성장을 이어가고 있다는 것이다. 먼 미래로 보였던 영화 아이언맨의 AI 비서인 '자비스' 수준의 소프트웨어를 이미 일궈냈다고도 덧붙였다. 향후에는 창의적 역량을 발휘하는 '이노베이터' 수준의 AI로 나아길 것이란 관측이다.
그는 빠르게 성장하는 AI가 '통제가능한 AI'가 돼야 한다고 주장했다. 임 특보는 "UN 보고서에서도 인류가 함께 AI 거버넌스를 만들어 기술·제도·의사결정 과정에 인간이 관여해야 한다고 말할 정도"라며 "AI 시대에 각 국가들은 군사동맹을 넘어 과학기술동맹으로 도약해야 한다"고 말했다. 그러면서 "이미 AI는 바이오 분야와 접목되고 있는데 이는 바이오 무기화로 이어질 수도 있다. 가자전쟁과 우크라이나 전쟁을 봐도 AI는 이미 무기화가 됐다"며 "인류에 위협이 되는 AI 리스크를 어떻게 제어할 수 있겠느냐가 중요한 숙제"라고 전했다.
이미 AI 분야에서 악성코드 같은 보안 위험성도 산재해 있다는 분석이다. 오픈AI와 구글, 네이버, 카카오 등 주요 테크기업들은 오픈소스 AI를 공개하고 있는데 이를 가공한 데이터를 살펴보면 각종 악성 코드가 가득하다는 설명이다. 결국 안전성과 신뢰성을 담보하지 못한다면 AI 혁명은 재앙으로 이어질 수도 있다는 게 임 특보의 설명이다.
이를 위해 임 특보는 AI에 대한 법적인 강제성이 필요하다고 설명했다. 소비자 보호, 인권, 인간 보호를 위한 규제가 필요하다는 것이다. 그는 "AI 설계 원칙에 투명성과 관리 책임(어카운터빌리티)을 포함해야한다"며 "안정성과 책임감 있는 AI는 절대 양보할 수 없는 가치"라고 설명했다.