코스피

4,701.34

  • 8.70
  • 0.19%
코스닥

948.45

  • 0.53
  • 0.06%
1/4

인스타 '노출 사진' AI로 잡아낸다

페이스북 노출 0

핀(구독)!


뉴스 듣기-

지금 보시는 뉴스를 읽어드립니다.

이동 통신망을 이용하여 음성을 재생하면 별도의 데이터 통화료가 부과될 수 있습니다.

인스타 '노출 사진' AI로 잡아낸다

주요 기사

    글자 크기 설정

    번역-

    G언어 선택

    • 한국어
    • 영어
    • 일본어
    • 중국어(간체)
    • 중국어(번체)
    • 베트남어

    사회관계망서비스(SNS) 인스타그램이 청소년 보호 강화 장치를 내놨다.

    인스타그램 모기업인 메타플랫폼(이하 메타)은 인스타그램에서 과도한 노출 사진, 성 착취 범죄 등으로부터 청소년들을 보호하고 잠재적 범죄자와 청소년의 상호작용을 어렵게 만드는 새로운 기능을 개발 중이라고 11일(현지시간) 밝혔다.


    메타는 인스타그램 다이렉트 메시지(DM) 시스템에서 미성년자에게 전송되는 누드 이미지를 자동으로 감지해 흐리게 처리할 수 있는 인공지능(AI) 기반의 툴을 시험 중이라고 설명했다.

    나체 사진이 포함된 이미지를 받으면 경고 화면에서 자동으로 흐리게 처리된다. 수신자는 이미지를 접하지 않은 상태에서 이를 볼지 말지 선택할 수 있다.


    이 기능은 18세 미만의 사용자에게는 기본으로 적용된다. 성인에게는 알림을 보내 이 기능을 적용하도록 권장된다. 또 이러한 이미지를 보낸 사람을 차단하고 채팅을 신고할 수 있는 옵션을 제공하고, 이런 식으로 접근하는 사람에겐 응하지 않아도 된다는 안내 메시지도 표시한다.

    아울러 메타는 잠재적으로 성 착취 사기에 연루될 수 있는 계정을 식별하는 데 도움이 되는 기술을 개발 중이라고 밝혔다.



    메타의 이 같은 조치는 미국 당국의 압박이 가중되는 상황에서 나왔다.

    지난해 10월 미국 내 41개 주 정부는 인스타그램 등이 과도한 중독성을 갖도록 설계돼 미성년자의 정신건강에 피해를 주고 있다며 메타를 상대로 소송을 제기했다.


    (사진=메타)





    - 염색되는 샴푸, 대나무수 화장품 뜬다
    한국경제TV  디지털뉴스부  이휘경  기자
     ddehg@wowtv.co.kr

    실시간 관련뉴스