애플 "정부가 아동음란물 외의 콘텐츠 감시 요구하면 거부할 것"
"아이클라우드 내 아동착취 음란물만 탐색 가능"
(서울=연합뉴스) 이주영 기자 = 애플이 아동착취 음란물(CSAM) 근절을 위해 아이클라우드(iCloud)에 시험 도입한 자동 탐지시스템이 감시 등에 악용될 수 있다는 우려에 대해 '이 시스템을 감시에 사용하라'는 정부 요구가 있다면 거부할 것이라며 진화에 나섰다.
10일 CNBC와 더버지(The Verge) 등 미국 언론에 따르면 애플은 자사 웹사이트에서 자동 탐지시스템은 아이클라우드에 저장된 아동착취 음란물 탐색에만 제한적으로 사용된다며 어떤 정부도 CSAM 외의 다른 콘텐츠를 탐지 대상에 추가하도록 강제할 수 없다고 밝혔다.
애플은 이어 자사의 자동 탐지시스템이 구글이나 마이크로소프트 같은 기업이 서버에서 불법 아동학대 이미지를 제거하기 위해 수년간 사용해온 시스템보다 기술적으로 훨씬 프라이버시 친화적이라고 강조했다.
앞서 애플은 지난주 아이클라우드에 업로드되는 콘텐츠 중 아동을 성적으로 착취한 음란물 사진을 포착해 비영리 민간단체 아동실종학대방지센터(NCMEC)에 통보하는 자동 탐지시스템을 개발, 아이클라우드에 시험 도입했으며 연내 아이폰 운영체제(iOS 15) 업데이트를 통해 배포할 예정이라고 밝혔다.
이 탐지시스템은 '뉴럴해시'(NeuralHash)로 불리는 뉴럴매칭 기능을 사용해 아이폰에 저장된 이미지가 NCMEC에 저장된 기존 아동착취 음란사진 고유의 디지털 지문(Hash)과 일치하는지 평가해 NCMEC에 통보한다.
애플의 새 시스템 도입에 아동보호단체 등은 아동학대 음란물 퇴치에 기여할 것이라며 환영하는 반면 보안전문가 등은 CSAM 탐지에 사용하는 알고리즘이 사람들을 감시하거나 해킹하는 '백도어'가 될 수 있다며 문제를 제기했다.
프라이버시 보호단체 등은 일단 콘텐츠를 들여다볼 수 있는 '백도어'가 생기면 이것이 CSAM 외의 다른 콘텐츠를 감시하는 데 이용될 가능성이 항상 존재하게 된다고 우려했다.
이들은 특히 권위주의 정권은 이 시스템을 반정부 콘텐츠를 감시하는 데 사용할 수 있고, 성소수자(LGBT)에 반대하는 정권은 이를 성적 표현을 억압하는 데 이용할 수 있다고 지적했다.
애플은 이에 대해 자동 탐지시스템은 성적 학대 이미지 외의 다른 것을 감시하는 데 사용될 수 없도록 안전장치를 갖추고 있고, 금지된 아동착취 음란물 목록과 CSAM 판정 기준이 되는 디지털 지문(Hash) 역시 NCMEC와 아동안전단체 등이 제공한다고 반박했다.
이어 "사용자의 프라이버시를 저하시키는 변경 조치를 하라는 정부 요구는 이전부터 있었지만 우리는 이런 요구를 꾸준히 거부해왔고 앞으로도 계속 거절할 것"이라며 "CSAM이 아닌 이미지를 검색 대상 목록에 추가하라는 정부 요구가 있다면 거절할 것"이라고 거듭 강조했다.
scitech@yna.co.kr
(끝)
<저작권자(c) 연합뉴스, 무단 전재-재배포 금지>