코스피

2,534.34

  • 33.10
  • 1.32%
코스닥

696.83

  • 19.82
  • 2.93%
1/3

내달 AI 신뢰성 자율 인증 추진…AI 생성물엔 워터마크 권고(종합)

페이스북 노출 0

핀(구독)!


글자 크기 설정

번역-

G언어 선택

  • 한국어
  • 영어
  • 일본어
  • 중국어(간체)
  • 중국어(번체)
  • 베트남어
내달 AI 신뢰성 자율 인증 추진…AI 생성물엔 워터마크 권고(종합)
4차 AI 최고위 전략대화…이종호 "AI 윤리·신뢰성에 조기 대응해야"



(서울=연합뉴스) 강건택 기자 = 이르면 내달부터 인공지능(AI) 서비스에서 발생할 수 있는 위험 요인 등을 민간 자율로 평가하는 검·인증 체계와 AI 생성물에 대한 워터마크 표시 제도가 추진된다.
과학기술정보통신부는 25일 서울 강서구 LG사이언스파크에서 열린 제4차 인공지능 최고위 전략대화에서 이 같은 내용을 담은 '인공지능 윤리·신뢰성 확보 추진 계획'을 발표했다.
민간 자율 AI 윤리·신뢰성 확보 지원, 선도적인 AI 윤리·신뢰성을 위한 기술·제도적 기반 마련, 사회 전반에 책임 있는 AI 의식 확산 등을 골자로 한 이번 계획의 세부 과제로 과기정통부는 오는 11월부터 민간 자율 AI 신뢰성 검·인증을 추진하겠다고 밝혔다.
인공지능이 생성한 결과물에 대한 표시 제도 도입도 11월부터 추진한다. 이용자 보호를 위해 가시적 워터마크를 권고하며, 표시 의무화는 의견 수렴과 국제 동향을 고려해 단계적 도입을 검토한다.
인공지능 자체가 내포하는 편향성과 불투명성 등 기술적 한계와 인공지능 오작동에 따른 잠재적 위험 요인에 대응해 기존 인공지능의 한계를 극복하고 초거대 인공지능의 신뢰성을 확보하기 위한 차세대 기술 개발에도 나선다.



내년부터 오는 2027년까지 총 220억원이 투입될 차세대 생성 인공지능 기술 개발을 통해 AI 생성물에 대한 사실 검증, 편향적·비윤리적 표현 필터링 등이 가능해질 것으로 전망된다.
'국가 인공지능 윤리기준'의 구체적 실천 수단으로 생성형 AI와 채용 AI 기반 서비스 등 분야별 가이드라인을 마련해 확대하고, 인공지능에 대한 윤리·사회 영향평가도 추진하기로 했다.
국가 AI 경쟁력 강화를 위해 민·관이 함께 정책·투자 방향·전략적 협력 방안을 논의하는 대표급 협의체인 이날 회의에는 이종호 과학기술정보통신부 장관과 고학수 개인정보보호위원회 위원장, AI 분야 민간 최고 전문가들이 참석했다.
이 장관은 "올해는 AI 위험성에 대응하기 위한 글로벌 차원의 AI 규범 정립과 안전성 강화 논의를 시작한 해"라면서 "AI 확산에 따라 새롭게 발생하는 윤리와 신뢰성 이슈에 대해 민관이 함께 조기 대응해 AI의 사회적 수용성을 제고해 나갈 필요가 있다"고 당부했다.
민간에서는 김유철 LG AI 연구원 부문장이 '인공지능 윤리 원칙 실행을 위한 기업의 노력'을, JLK 김동민 대표가 '고위험 인공지능 분야에 대한 신뢰성 검·인증의 필요성'을 각각 발표했다.
이어 진행된 주제별 토론에서 기업들은 인공지능이 생성한 결과물에 가시적 워터마크 도입이 필요하다는 점에 공감했고, 자사 서비스에 단계적으로 적용하는 데 동의했다고 과기정통부는 전했다.

firstcircle@yna.co.kr
(끝)


<저작권자(c) 연합뉴스, 무단 전재-재배포 금지>
- 염색되는 샴푸, 대나무수 화장품 뜬다

실시간 관련뉴스