정책·인권단체 "애플, 아동학대 영상·메시지 검색 중단하라"

입력 2021-08-20 10:55
정책·인권단체 "애플, 아동학대 영상·메시지 검색 중단하라"

미국·독일·인도·브라질 등 90여 개 단체 공개서한 발표

(서울=연합뉴스) 이주영 기자 = 미국과 독일, 인도 등 세계 각국 90여 개 정책·인권단체가 애플에 아동착취 음란물(CSAM) 근절을 위한 아이클라우드(iCloud)·아이메시지(iMessage) 검색 계획을 당장 중단할 것을 요구하고 나섰다.

미국 IT전문매체 '더버지'(The Verge)는 20일 미국 시민자유연합(ACLU)과 민주주의·기술센터(CDT) 등을 중심으로 한 세계 90여 개 정책·인권단체가 전날 애플에 "아이폰과 아이패드, 기타 애플 제품에 감시기능을 구축하는 계획을 폐기하라"는 내용의 공개서한을 내놨다고 전했다.



애플은 최근 아동착취 음란물(CSAM)을 적발할 수 있는 자동 탐지시스템을 아이클라우드에 도입하고, 별도의 어린이 안전 조치로 어린이들의 아이메시지를 검색해 노골적인 성적 표현을 찾아내 제거하는 계획도 마련했다고 발표했다.

이런 계획에 대해 아동보호단체 등은 아동학대 음란물 퇴치에 기여할 획기적인 조치라고 환영한 반면 보안전문가 등은 CSAM 탐지에 사용하는 알고리즘이 사람들을 감시하거나 해킹에 이용되는 '백도어'가 될 수 있다며 문제를 제기해왔다.

세계 정책·인권 단체들은 이번 공개서한에서 "이런 기능들은 어린이를 보호하고 아동 성 착취물 확산을 줄이기 위한 것이지만, 오히려 표현을 검열하고 사람들의 프라이버시와 안전을 위협하며 어린이들에게 처참한 결과를 초래하지 않을까 우려된다"고 지적했다.

이들은 또 애플의 새 조치에 대한 반발이 기기 검색 기능에 집중되고 있지만, 어린이들의 아이메시지에서 노골적 성적 표현을 검색해 감추려는 계획 역시 어린이들을 위험에 빠뜨릴 가능성이 있으며, 애플이 강조해온 아이메시지의 '전 구간'(end-to-end) 암호화 약속을 깨뜨리는 게 될 것이라고 주장했다.

일단 내용을 들여다볼 수 있는 백도어가 생기면 정부들이 이를 다른 계정으로 확대하고, 노골적인 성적 표현 외의 다른 이유로 정부가 반대하는 사진들까지 검색하도록 애플을 압박할 수 있을 것으로 이들 단체는 우려하고 있다.

이에 대해 애플은 자동 탐지시스템은 아이폰에 저장된 이미지에 기존 아동착취 음란 사진에 있는 고유의 디지털 지문(Hash)이 있는지 확인해 비영리 민간단체 아동실종학대방지센터(NCMEC)에 통보하는 것으로 아동착취 음란물 탐색에만 제한적으로 사용되며 CSAM 외의 다른 콘텐츠를 탐지 대상에 추가하라는 어떤 정부의 요구도 거부할 것이라고 맞서고 있다.

scitech@yna.co.kr

(끝)

<저작권자(c) 연합뉴스, 무단 전재-재배포 금지>