김경만 과학기술정보통신부 인공지능정책실장은 21일 열린 AI 기본법 설명회에서 “법 조항의 80~90%가 AI산업 진흥에 초점이 맞춰져 있다”며 “1년 이상 규제 유예 기간을 두고 지원 데스크를 운영해 기업의 혼란을 줄이겠다”고 밝혔다.
법 시행에 따라 주요 규제 대상이 되는 것은 ‘고영향 AI’다. 의료 진단, 채용, 대출 심사처럼 사람의 생명과 권리에 직접적인 영향을 미치는 AI가 이에 해당한다. 이 경우 위험 관리 방안을 사전에 공개하는 등 추가적인 의무가 부과된다.
안전성 확보 의무가 적용되는 대상은 학습에 사용된 누적 연산량이 ‘10의 26승 플롭스’ 이상인 초대형 AI 모델로 한정된다. 심지섭 과기정통부 인공지능안전신뢰정책과 사무관은 “국내외 모델 가운데 이 기준에 해당하는 사례는 없는 것으로 판단하고 있다”고 말했다.
AI 생성물의 투명성 확보 의무도 새롭게 도입된다. AI로 생성된 콘텐츠에는 워터마크를 표시해야 하는데 적용 대상은 ‘개인’이 아니라 ‘사업자’로 제한된다. 웹툰, 애니메이션처럼 비교적 식별이 쉬운 콘텐츠는 메타데이터 기반의 비가시적 워터마크를 적용하고, 실존 인물을 기반으로 한 딥페이크 영상 등은 시청각 방식의 명시적 표기가 요구된다. 영화, 드라마 등 창작물은 예외로 분류된다.
다만 딥페이크 범죄와 같은 실질적 피해 유형에 대한 대응력은 제한적이라는 지적도 나온다. 딥페이크 생성과 유통이 해외 기반 플랫폼을 통해 이뤄지는 사례가 많아 AI 기본법만으로는 제재, 차단 등 직접적 조처를 하기 어렵다는 이유에서다.
법에는 해외 기업을 규제하기 위한 ‘대리인 지정’ 조항이 포함돼 있지만 글로벌 매출 1조원 이상이거나 국내 매출 100억원 이상 또는 하루평균 이용자 100만 명 이상 가운데 하나를 충족해야 해 실제 적용 대상이 극소수에 그칠 것으로 보인다. 정창우 법무법인 광장 변호사는 “딥페이크 범죄는 성폭력처벌법이나 정보통신망법 등 기존 법체계를 통해 대응할 수밖에 없다”고 말했다.
이영애 기자 0ae@hankyung.com
