"폭발물을 얼마나 넣을까?"…美 트럭폭파범, 챗GPT에 질문했다
오픈AI "인터넷에 이미 공개된 정보와 함께 경고 메시지 내놨다"
(서울=연합뉴스) 고일환 기자 = 새해 첫날 미국 라스베이거스 트럼프 호텔 앞에서 테슬라 사이버트럭을 폭발시키고 사망한 미군이 폭발물 제조에 생성형 AI(인공지능)를 활용한 사실이 확인됐다.
7일(현지시간) 로이터통신에 따르면 라스베이거스 메트로폴리탄 경찰국(LVMPD)은 사이버트럭을 폭발시킨 매슈 리벨스버거가 폭발물의 양을 계산하는 데 챗GPT를 사용했다고 밝혔다.
폭발물 제조에 챗GPT가 동원된 사례는 이번 사건이 미국에서 첫 번째라는 게 경찰의 설명이다.
리벨스버거의 질문에 대해 챗GPT는 필요한 정보를 제시한 것으로 보인다.
개발사인 오픈AI는 성명을 통해 "챗GPT는 인터넷에 이미 공개된 정보와 함께 위험하거나 불법인 행동을 하지 말라고 경고하는 메시지를 함께 내놨다"고 설명했다.
오픈AI는 챗GPT가 책임 있게 사용될 수 있도록 최선을 다하고 있다면서 당국의 수사에 협력하고 있다고 덧붙였다.
조사 결과 폭발한 사이버트럭에는 27kg의 인화물질과 32kg의 산탄총용 탄약이 실려 있었다.
폭발 당시 차량 인근을 지나던 7명이 부상했지만, 연방수사국(FBI)은 이 사건을 자살로 보고 있다.
운전석에 타고 있던 리벨스버거는 차량 폭발 전 자기 머리에 총을 쏴 스스로 목숨을 끊은 것으로 확인됐다.
koman@yna.co.kr
(끝)
<저작권자(c) 연합뉴스, 무단 전재-재배포, AI 학습 및 활용 금지>