주요국 정상과 빅테크 경영인들이 참가한 인공지능(AI) 정상회의가 어제 서울에서 이틀간 일정으로 개막했다. 지난해 11월 영국에서 ‘AI 안전성 정상회의’가 처음 열린 데 이어 두 번째 주최국이 된 것이다. 이번 서울 정상회의를 계기로 국제적 AI 규범과 표준 분야 리더십을 잡아야 한다.
정부는 이날 ‘안전’ ‘혁신’ ‘포용’이라는 AI 거버넌스 3대 원칙을 국제 사회에 제시했다. 지난해 영국 정상회의가 안전성에 집중한 것과 달리 혁신과 포용으로 의제를 넓힌 것이다. 챗GPT 출현 이후 AI 기술은 기업과 산업은 물론 군사, 안보, 사회, 문화 등 모든 분야에서 혁신을 일으키며 국가 경쟁력 지형을 바꿀 핵심 동력으로 부상했다. 하지만 가짜뉴스, 사이버 공격 등 기존에 경험해보지 못한 위협을 초래하고 계층·국가 간 불균형을 증폭시킬 것이란 우려도 크다. 이날 제시된 3원칙은 AI가 가진 위험을 관리하는 동시에 인류 경제와 사회에 기여할 혁신 기회를 확대하고, 격차를 해소해 누구나 혜택을 누릴 수 있도록 연대하자는 취지다.
AI 시대에 규범은 경쟁력의 토대다. 새 기술이 출현할 때마다 규범과 표준에 대한 논의를 이끈 나라가 해당 기술과 산업 발전을 주도해왔다. 선진국들이 치열한 주도권 선점 경쟁을 벌이는 이유다. 미국은 2020년 자율 규제 기반의 ‘국가 AI 이니셔티브법’을 제정했다. 유럽연합(EU)은 지난 3월 빅테크의 대규모언어모델(LLM) 등에 엄격한 잣대를 적용하는 ‘EU AI법’을 통과시켰다. 이런 상황에 AI 주요 3개국(G3) 도약을 표방하면서도 제도적 기초인 ‘AI 기본법’조차 마련하지 못하고 있는 한국의 현실은 안타깝다. 작년 초 법안이 발의됐지만, 규제를 더 강화해야 한다는 주장과 산업 육성이 우선이라는 의견이 맞서 타협점을 찾지 못한 채 21대 국회 임기 만료와 함께 폐기 수순을 밟고 있다. 이번 정상회의에서 합의한 원칙을 근간으로 AI 진흥과 규제 양면에서 적절하게 균형 잡힌 기본법 제정도 서둘러야 할 것이다.