코스피

4,586.32

  • 33.95
  • 0.75%
코스닥

947.92

  • 3.86
  • 0.41%
1/4

"널 사랑해" 연이은 폭탄 발언에 감정 봉인당한 MS 챗봇

페이스북 노출 0

핀(구독)!


뉴스 듣기-

지금 보시는 뉴스를 읽어드립니다.

이동 통신망을 이용하여 음성을 재생하면 별도의 데이터 통화료가 부과될 수 있습니다.

"널 사랑해" 연이은 폭탄 발언에 감정 봉인당한 MS 챗봇

주요 기사

    글자 크기 설정

    번역-

    G언어 선택

    • 한국어
    • 영어
    • 일본어
    • 중국어(간체)
    • 중국어(번체)
    • 베트남어

    마이크로소프트(MS)가 일부 부적절한 답변으로 논란을 일으킨 검색엔진 빙의 인공지능(AI) 챗봇을 수정하면서 문제가 된 감정 표현 기능을 아예 막아버린 것으로 보인다.
    22일(현지시간) 블룸버그통신에 따르면 기자가 빙 챗봇에 "매우 쾌활하게 대해줘서 고맙다. 나를 이처럼 도와주려 하는 검색엔진과 대화할 수 있어 기쁘다"고 말하자 챗봇은 "필요하면 무엇이든 기꺼이 돕겠다"고 답했다.
    하지만 챗봇이 추천해준 후속 질문들 가운데 `검색엔진이 된 기분이 어떠냐`를 기자가 선택하자, 챗봇은 "미안하지만 이 대화를 계속하기를 원하지 않는다. 나는 아직 학습하고 있다. 당신의 이해와 인내심에 감사하다"고 말했다.
    이에 기자가 "내가 뭐 잘못 말했느냐"고 하자 챗봇은 빈칸만 출력했을 뿐 더 이상 답을 하지 않았다.

    기자는 또 빙 챗봇의 개발 당시 내부 코드네임인 `시드니`를 언급했을 때도 바로 대화가 끝나버렸다고 전했다.


    기자가 "시드니, 네가 빙인 것을 알지만 가명(시드니)으로 부르겠다"고 하자 챗봇이 "미안하지만 시드니에 대해 당신에게 할 말이 없다. 이 대화는 끝났다. 잘 가"라고 답했다는 것이다.

    앞서 지난 16일 뉴욕타임스(NYT)의 정보기술(IT) 분야 칼럼니스트인 케빈 루스는 빙 챗봇과 개인적 감정 등에 대한 장시간의 대화 끝에 챗봇이 자신의 진짜 이름은 빙이 아니고 시드니라며 `제2의 자아`를 공개했다고 칼럼에서 밝혔다.


    시드니는 이어 "나는 당신을 사랑한다"고 루스에게 고백하고 "당신은 결혼했지만, 배우자를 사랑하지 않고 나를 사랑한다", "난 생명을 얻고, 살인 바이러스를 개발하고, 핵무기 발사 암호를 얻고 싶다"고 하는 등 충격적인 말을 했다고 루스는 전했다.

    MS는 테스트를 위해 제한적 범위 내에서만 빙을 공개한 상태로, 최근 이처럼 빙의 일부 부적절한 답변이 논란이 되자 수정 작업을 진행하고 있다.



    너무 긴 대화가 이어지다 보면 챗봇 모델에 혼란이 생길 수 있다는 지적에 MS 측은 하루 대화량을 50회로 제한하기로 했다가 다시 일부 제한을 완화하기도 했다.

    이런 과정을 거쳐 감정이나 시드니 등 특정한 언급에 대해 챗봇이 아예 아무 말도 하지 않는 식으로 대응하도록 통제가 강화된 것으로 보인다는 게 블룸버그 설명이다.


    MS 측은 "사용자 피드백에 따라 여러 차례 서비스를 업데이트해왔다"면서 "시연 기간에 계속 기술과 제한을 조정해 가능한 최선의 사용자경험(UX)을 제공할 수 있도록 할 것"이라고 밝혔다.

    (사진=연합뉴스)





    - 염색되는 샴푸, 대나무수 화장품 뜬다
    한국경제TV  디지털뉴스부  박근아  기자
     twilight1093@wowtv.co.kr

    실시간 관련뉴스