애플 아동착취 음란물 감시 시스템 놓고 '기대·우려 교차'

입력 2021-08-09 11:59
애플 아동착취 음란물 감시 시스템 놓고 '기대·우려 교차'

보안 전문가 "개인정보 침해·해킹 등에 악용 우려"

(서울=연합뉴스) 이주영 기자 = 애플이 클라우드 서비스 아이클라우드에 시험 도입한 아동착취 음란사진(CSAM) 자동 탐지시스템에 대해 아동음란물 등 불법행위를 차단할 획기적 조치가 될 것이라는 기대감과 함께 오히려 개인정보 침해와 해킹 등 악용 가능성이 있다는 우려가 함께 제기되고 있다.



9일 미국 AP통신과 IT전문매체 기즈모도 등에 따르면 아동보호단체 등이 애플의 새 시스템 도입을 크게 환영하는 반면 보안전문가들은 애플이 CSAM 탐지에 사용하는 알고리즘이 사람들을 감시하거나 해킹 등에 악용될 가능성이 있다고 경고하고 있다.

애플은 앞서 아이클라우드에 업로드되는 콘텐츠 중 아동을 성적으로 착취한 음란물 사진을 포착해 비영리 민간단체 아동실종학대방지센터(NCMEC)에 통보하는 시스템을 개발, 아이클라우드에 시험 도입하고 연내 아이폰 운영체제(iOS 15) 업데이트를 통해 배포할 예정이라고 밝혔다.

이 탐지시스템은 '뉴럴해시'(NeuralHash)로 불리는 뉴럴매칭 기능을 사용해 아이폰에 저장된 이미지가 NCMEC에 저장된 기존 아동착취 음란사진 고유의 디지털 지문(Hash)과 일치하는지 평가해 NCMEC에 통보한다.

애플은 이 시스템을 통해 회사 서버에 대한 광범위한 이미지 검색 필요성을 피할 수 있고 아이폰 암호화 시스템에는 변화가 없어 사용자들은 자기 기기에 사생활 자료를 온전히 보관할 수 있다고 강조했다.

존 클라크 NCMEC 대표는 "애플의 아동보호 확대가 게임 체인저가 될 것"이라며 "많은 사람이 애플 제품을 사용하는 만큼 새로운 안전 조치가 아이들을 생명을 구할 수 있을 것으로 기대한다"고 말했다.

그러나 보안전문가들은 아동착취 음란물 탐지 시스템에 적용된 알고리즘, 즉 이미지 전체 내용보다 이미지에 포함된 특정 '지문'으로 아동착취 음란물 여부를 판단하는 방식이 악용될 소지가 있다고 지적한다.

존스홉킨스대 암호연구자 매튜 그린은 이 시스템은 무고한 사람들에게 겉으로 문제가 없어 보이지만 아동 포르노 지문과 일치하게 디자인된 이미지를 보냄으로써 이들을 모함하는 데 악용될 수 있다며 연구자라면 이런 방식으로 쉽게 애플의 알고리즘을 속일 수 있다고 경고했다.

그는 또 이런 시스템이 정부가 반체제 인사 등을 감시하는 데 이용할 수도 있다며 "중국 정부가 '여기 당신이 검색해 주었으면 하는 파일 목록이 있다'고 하면 애플은 '노'(No)라고 답할까요? 그들이 '노'라고 답하길 바라지만 그들의 기술은 '노'라고 하지 않을 것이다"라고 말했다.

또 애플이 자동 탐지시스템 외에 별도 어린이 안전 조치로 노골적인 성적 표현을 찾아내기 위해 암호화된 메시지를 검색할 계획이라고 밝힌 것도 사생활 보호론자들에게도 우려를 불러일으킨다.

워싱턴에 본부를 둔 비영리단체 민주주의와 기술 센터는 암호화된 메시지 검색은 애플이 내세우는 '전 구간 암호화'(end-to-end encryption) 보장을 완전히 깨뜨리는 것이라며 이 계획의 폐기를 요구했다.

이 단체는 또 실제로 위험한 콘텐츠와 예술이나 밈(meme) 같은 내용을 구별하는 기술은 오류 발생 소지가 매우 크다며 애플의 기술에 대해 의문을 제기했다.

scitech@yna.co.kr

(끝)

<저작권자(c) 연합뉴스, 무단 전재-재배포 금지>