영화 속 얘기 아냐…금융사 직원, 딥페이크에 속아 340억원 송금
홍콩 글로벌 업체…CFO 등 사칭한 가짜 화상회의에 의심접어
AI로 영상·목소리 재현…이미 정치인·연예인 허위정보 급증세
(서울=연합뉴스) 임지우 기자 = 홍콩의 한 금융사 직원이 딥페이크(AI 기술을 기반으로 만들어낸 가짜 이미지)로 만들어진 '가짜' 이사와의 영상통화에 속아 2억 홍콩달러(한화 약 342억원)를 송금하는 사기를 당했다고 미 CNN 방송이 4일(현지시간) 보도했다.
홍콩 경찰 당국에 따르면 한 글로벌 금융사의 홍콩 지부에서 일하던 이 직원은 영국에 있는 회사의 최고재무책임자(CFO)로부터 거액의 돈을 비밀리에 거래할 것을 요구하는 이메일을 받았다.
수상한 요구에 처음엔 피싱 메일이라고 의심했던 이 직원은 이후 회사 동료 여러 명이 함께 참여한 화상 회의에서도 같은 지시를 받자 의심을 접고 2억 홍콩달러를 송금했다.
이 모든 게 사기였다는 사실은 이 직원이 나중에 회사 본사에 확인한 뒤에야 밝혀졌다.
사기꾼 일당은 CFO 뿐 아니라 화상회의에 참석했던 모든 직원의 얼굴을 딥페이크로 재현해 피해 직원을 속인 것으로 드러났다.
홍콩 경찰 당국자는 "여러 명이 참석한 화상 회의에서, 이 직원이 봤던 모든 사람들은 가짜였다"고 설명했다.
홍콩에서 딥페이크를 활용해 사람들을 속여 돈을 빼앗은 사례는 이번이 처음이 아니다.
이날 홍콩 경찰에 따르면 최근 체포된 한 사기 일당은 지난해 7월부터 9월까지 분실 신분증 8개를 도용해 만든 딥페이크 이미지로 은행 대출 90건을 받고 계좌 54개를 만들었다.
이외에도 최근 적발된 딥페이크를 악용한 사기 행각은 최소 스무 건에 달한다고 홍콩 경찰은 밝혔다.
이처럼 딥페이크 기술이 금융 사기를 비롯해 선거, 사회관계망서비스(SNS) 등 각종 분야에서 악용될 수 있다는 우려가 전 세계적으로 커지고 있다.
딥러닝(Deep learning)과 가짜(Fake)의 합성어인 딥페이크는 사진이나 영상뿐 아니라 목소리까지도 조작하며 허위 정보를 퍼뜨리는데 악용되는 사례가 늘고 있다.
최근 미국에서는 팝스타 테일러 스위프트의 얼굴 사진이 합성된 음란 이미지가 온라인상에서 확산해 팬들의 공분을 일으켰다.
올해 11월 열리는 미국 대선과 관련해서는 민주당 당원들에게 경선 투표 거부를 독려하는 조 바이든 대통령의 가짜 목소리 전화가 확산해 문제가 되기도 했다.
wisefool@yna.co.kr
(끝)
<저작권자(c) 연합뉴스, 무단 전재-재배포, AI 학습 및 활용 금지>