코스피

2,575.41

  • 3.32
  • 0.13%
코스닥

733.20

  • 2.17
  • 0.30%
1/6

AI 모델 학습 데이터서 아동 성 착취 이미지 2천장 삭제

페이스북 노출 0

핀(구독)!


뉴스 듣기-

지금 보시는 뉴스를 읽어드립니다.

이동 통신망을 이용하여 음성을 재생하면 별도의 데이터 통화료가 부과될 수 있습니다.

AI 모델 학습 데이터서 아동 성 착취 이미지 2천장 삭제

주요 기사

글자 크기 설정

번역-

G언어 선택

  • 한국어
  • 영어
  • 일본어
  • 중국어(간체)
  • 중국어(번체)
  • 베트남어
AI 모델 학습 데이터서 아동 성 착취 이미지 2천장 삭제
이미지 전환 사이트 등에서 딥페이크 성범죄 사용 우려


(서울=연합뉴스) 고일환 기자 = 인공지능(AI) 도구 훈련에 사용되는 데이터베이스에서 아동을 대상으로 한 딥페이크 성범죄에 사용될 수 있는 이미지들이 대거 삭제됐다.
30일(현지시간) AP통신에 따르면 비영리 오픈소스 이미지 데이터베이스인 LAION은 최근 미국 스탠퍼드대를 비롯해 캐나다 및 영국 기관들과 협업해 데이터베이스에서 아동 성 착취 이미지 2천 개 이상을 삭제했다.
LAION은 인터넷 공간의 각종 이미지를 분류한 뒤 텍스트를 이미지로 변환해주는 AI에 제공하는 데이터베이스다.
문제는 데이터베이스에 존재하는 아동 성 착취 이미지가 딥페이크 성범죄 등 또 다른 아동 학대로 이어질 수 있다는 것이다.
실제로 최근 AI를 이용한 이미지 생성 사이트에서 아동을 대상으로 한 딥페이크 성범죄가 증가했다.
앞서 스탠퍼드대는 지난해 12월 LAION에서 최소 1천 개 이상의 아동 성 착취 이미지를 발견했다는 보고서를 발표했다.
당시 보고서의 책임 저자인 데이비드 티엘은 LAION의 아동 성 착취 이미지 삭제를 환영했지만, 다음 조치도 이어져야 한다고 지적했다.
실제 아동 성 착취 이미지가 아니더라도 아동을 대상으로 한 딥페이크 성범죄에 사용될 수 있는 이미지의 AI 제공도 중단돼야 한다는 것이다.
한편 전문가들은 아동 성 착취 콘텐츠와 당사자의 동의를 받지 않은 음란물을 AI 데이터베이스에서 걸러내고, 제거하기 위한 규약을 마련해야 한다고 주장하고 있다.
koman@yna.co.kr
(끝)


<저작권자(c) 연합뉴스, 무단 전재-재배포, AI 학습 및 활용 금지>

실시간 관련뉴스