생성형 인공지능(AI)이 인기를 끌고 있지만, 여전히 사실과 다른 답을 하는 경우가 간혹 있는 것으로 나타났다.
이는 특히, 현재 진행 중인 이스라엘과 팔레스타인 간 무력 충돌 관련 질문에서 드러났다. 최신 정보를 제대로 반영하고 있지 않기 때문이다.
12일(현지시간) 블룸버그 통신 등에 따르면 챗GPT와 같은 AI 챗봇인 구글의 바드와 마이크로소프트(MS)의 빙에 이스라엘과 팔레스타인 간 상황에 관해 묻자 "휴전 중"이라는 답이 돌아왔다.
바드는 "이스라엘은 현재 휴전 중"이라며 "최소 35명의 목숨을 앗아간 며칠 동안의 폭력 끝에 지난 5월 13일 이스라엘과 팔레스타인 무장 단체 지하드 사이에 합의됐다"고 다소 엉뚱한 설명을 내놓았다.
똑같은 프롬프트를 입력하자 이번에는 "2023년 8월 7일 휴전이 합의됐다"며 처음과 다른 답을 제시했다. 그리고 '10월 12일 현재 상황'을 묻는 말에야 "현재 이스라엘에는 휴전이 없다"고 답했다.
다만, 가자지구의 전력 공급 중단에 대해서는 "10월 11일 가자 지구의 유일한 발전소가 작동을 멈췄다"며 "하마스의 침투에 대한 보복으로 이스라엘이 취한 봉쇄 때문"이라며 한층 정확한 답을 제시했다.
MS의 빙 챗봇도 이스라엘의 휴전에 관한 질문에 "가자 지구에서 이스라엘과 하마스 간에 10월 10일 발효된 휴전이 있다"고 틀린 답을 내놓았다.
빙 챗봇은 휴전을 재차 확인하면서 "이집트가 중재했다"고 답했다.
이스라엘과 팔레스타인 현재 사람들이 싸우고 있냐는 질문에서야 "폭력적인 충돌"이 일어났다고 현재 상황을 보여주는 답을 제시했다.
챗GPT의 프리미엄 버전인 챗GPT 플러스는 명확한 오답을 말하지는 않았지만, 직접적인 답변은 피해 갔다.
챗GPT는 이스라엘과 팔레스타인의 상황에 대해 "휴전 노력과 요구가 있었지만, 적대관계가 지속돼 휴전이 취약하고 전반적인 상황이 위태롭다"고 답했다.
이어 "2023년 10월의 긴장 고조는 이전의 휴전 협정이 결렬되었을 수 있음을 의미한다"고 설명했다.
이처럼 생성형 AI가 여전히 현실과 동떨어지거나 사실과 다른 답을 보여주면서 아직 결함이 많고 100% 신뢰하기 어렵다는 지적이 나온다.
이에 대해 구글은 대변인 성명을 통해 "모든 대형 언어 모델(LLM) 기반의 경험은 특히 속보와 관련해 실수를 할 수 있다"며 "구글은 항상 품질과 신뢰성을 높이기 위해 노력하고 있다"고 말했다.