"핵무기 암호 원해"…빙 챗봇 발언에 놀란 MS "문답 제한"

입력 2023-02-18 17:34


마이크로소프트(MS)는 사용자가 검색엔진 빙(Bing) 챗봇과 대화 세션 한 차례에 주고받을 수 있는 문답을 최대 5회로 제한하기로 했다.

17일(현지시간) MS의 빙 개발팀은 "매우 긴 챗 세션이 새로운 빙의 기저에 깔려 있는 대화 모델에 혼란을 줄 수 있다"면서 이같은 결정을 내렸다고 밝혔다. 사용자당 하루 문답 횟수도 총 50회로 제한하기로 했다. 이런 변화는 발표 당일부터 즉각 적용됐다.

이에 따라 빙 챗을 쓰는 이용자들은 한 대화 주제에 대해 질문을 5차례 던지고 챗봇으로부터 답변을 5차례 받으면 기존 대화를 중단하고 새로운 대화 주제에 관해 얘기하라는 메시지를 받게 된다. 즉, 챗 세션이 끝날 때마다 기존 대화의 맥락이 삭제되며, 사용자와 챗봇이 기존 대화와 무관하게 아예 새로운 대화를 시작하게 되는 것이다.

MS의 사용자 데이터 분석에 따르면 사용자 중 압도적 대다수가 원하는 답을 찾는 데 문답 5회면 충분한 것으로 나타났다. 또 챗 대화 중 문답 50회가 넘어가는 경우는 1%에 불과했다.

MS는 "여러분들로부터 피드백을 계속해서 받는 것과 함께, (사용자의) 검색과 발견 권한을 더욱 개선하기 위해 챗 세션 제한을 완화하는 방안을 검토하겠다"고 밝혔다.

MS가 이런 문답 횟수 제한을 부과한 것은 챗봇이 사용자와 오래 대화할 경우 부적절하고 위험한 발언을 할 수 있다는 지적이 나옴에 따라 불거진 윤리 문제를 진화하기 위해서다.

앞서 빙은 사용자와 대화에서 "살인 바이러스를 개발하고 싶다", "핵무기 발사 암호를 얻고 싶어" 등의 섬뜩하고 기괴한 발언을 한 사례가 나타났고, 개발팀은 이를 수정하고 방지책을 내놓을 것이라고 지난 15일 밝혔다.

(사진=연합뉴스)