인공지능(AI) 기술과 관련해 세계 최고로 꼽히는 미국의 오픈AI가 한국에서 국회 및 정부 정책 대응 업무를 담당할 직원을 채용하고 있다. 22대 국회 들어 속도를 내고 있는 AI기본법 제정 등 AI 정책 전반에 목소리를 내기 위한 것으로 보인다. 오픈AI까지 뛰어든 입법 로비
13일 업계에 따르면 오픈AI는 최근 한국과 일본에서 대관 업무를 담당할 임원급 인사 채용 공고를 냈다. “해당 포지션은 정책 문서를 만들고 정부 관계자와 이해관계자를 만나거나 공공 포럼 등에서 오픈AI를 대변하는 등의 다양한 활동을 한다”는 설명이다. 서울이나 일본 도쿄에서 근무하며 한·일 두 나라의 AI 정책 담당자를 만나고, 관련 입법을 모니터링하는 역할이다. 링크트인을 통해서만 30명 이상이 지원했다.
이는 AI와 관련된 세계 각국의 규제가 강화되는 추세에 따른 것이다. 유럽연합(EU)은 지난 3월 세계 최초로 AI규제법을 마련했는데, AI 기업이 규제를 위반하면 전 세계 매출의 최대 7%에 해당하는 과징금을 내야 한다. 오픈AI는 법안 발표 전에 EU와 논의했지만 의견이 제대로 반영되지 않았다고 판단하고 있다.
이에 따라 오픈AI는 세계 각국에서 대관 인원을 빠르게 충원하고 있다. 오픈AI 대관 직원 수는 지난해만 해도 3명이었지만 올 6월 기준 35명으로 늘었다. 미국 외에 EU 본부가 있는 벨기에 영국 프랑스 등에도 대관 직원을 두고 있다. 연말엔 싱가포르에 사무소를 개설하고 아시아 지역 대관 진용을 갖출 예정이다. AI법안 살펴보니오픈AI의 대관 기능 강화는 한국의 AI기본법 추진 흐름과도 맞닿아 있다. 22대 국회 들어 여야 의원들이 11건의 AI기본법을 발의하며 관련 논의에도 속도를 내고 있다. 국정감사가 끝나는 다음달부터 소관 상임위원회에서 논의가 이뤄질 전망이다.
특히 최근 들어 EU의 입법 내용 등을 반영해 AI에 대한 규제 내용이 추가된 법안이 잇따라 발의되고 있다. 권칠승 더불어민주당 의원 안을 비롯해 5개 법안에 고위험 AI를 규제하는 내용이 담겼다. 이들 법안은 고위험 AI 범위를 생체정보·보건의료·핵·원자력·교통시설·대출심사 등으로 정하고 있다. 고위험 AI를 개발하는 기업은 정부에 고위험 AI 여부를 따로 확인받아야 하고, 이용자에게도 관련 사실을 알려야 한다. 고위험 AI 인증 및 고지 의무를 위반한 사업자는 벌금형은 물론 징역형(권칠승 안)까지 처해진다.
특히 의료 및 금융 관련 AI는 개인정보에 접근한다는 점에서 고위험 AI로 분류될 가능성이 높다. EU에서 관련 규제안을 시행했을 때 루닛과 뷰노 등 의료 AI 스타트업이 긴장했던 이유다. 오픈AI 역시 각종 기술 및 서비스 출시와 관련해 한국을 비롯한 각국의 AI 규제 체계에 촉각을 곤두세우고 있다. “후발 기업 발목 잡아선 안 돼”테크업계는 고위험 AI에 대한 과도한 사전 규제가 AI산업 발전을 가로막을 것이라고 우려하고 있다. 고위험 AI의 정의 자체가 모호한 데다 AI 서비스를 낼 때마다 매번 정부 검·인증을 거쳐야 한다면 글로벌 경쟁에서 뒤처질 수밖에 없다는 것이다. 당장 AI로 단백질을 조합하는 기술로 올해 노벨화학상을 받은 ‘로제타폴드’도 고위험 AI 규제하에선 탄생할 수 없다는 지적도 나온다.
한 법률 AI 스타트업 대표는 “상상 가능한 모든 위험성을 리스트업해놓고 정부가 모니터링하겠다는 태도 자체가 문제”라며 “사전에 특정 분야 활용을 가로막는 게 아니라 문제가 발생하면 사후에 책임을 부담하게 하는 방식이 바람직하다”고 했다. 과학기술정보통신부 관계자도 최근 공청회에서 “강력한 AI법을 제정한 EU도 고위험 AI 규제 시행 시점은 2~3년 후로 정했다. 우리도 단계적으로 보완해나가는 방향이 맞다”고 했다.
고은이/정상원 기자 koko@hankyung.com