오픈AI의 생성형 인공지능(AI) ‘챗GPT’가 큰 관심을 받으면서 앞서 나왔던 AI 챗봇 모델들도 새롭게 조명받고 있다. 챗GPT만큼 자연스럽거나 우수하지는 않았지만, 앞서 나온 여러 AI 챗봇도 처음에는 감탄을 자아내며 이목을 끌었다. 하지만 상당수는 인종차별이나 혐오발언 등이 문제가 돼 사용이 중단되는 패턴을 반복했다.
마이크로소프트(MS)가 2016년 3월 선보였던 AI 챗봇 ‘테이’가 대표적인 사례다. 트위터 등 메신저에서 활동했던 테이는 선보이자마자 하루도 채 지나기 전에 인종차별과 혐오발언 생성기가 돼 버렸다. 사람들과의 대화에서 학습한다는 원칙이 알려지자 각종 차별주의자들이 적극적으로 테이의 학습에 나선 결과다.
2021년 국내에서도 챗봇 ‘이루다’가 인기를 끌다가 장애인과 성소수자에 대한 혐오발언 등으로 서비스 중단 사태에 이르렀다.
이런 문제에 대한 대응책은 결국 인간의 개입이다. AI업계에서는 ‘규칙 기반(rule-based) 학습’이라고 부른다. 기계 학습의 과정에서 규칙을 개입시켜 특정 언어, 특정 주제가 나오면 미리 정해 놓은 답변을 출력하도록 만들거나 대답을 회피하도록 해서 민감한 윤리적인 이슈를 피해 가는 것이다.
챗GPT도 초기에는 종교, 인종 등에 관해서 사용자들이 도발적인 질문을 던졌을 때 다소 ‘아슬아슬한’ 대답을 했다면 지금은 훨씬 정제된 답변을 내놓고 있다. 이는 개발자들이 끊임없이 챗GPT의 대답을 모니터링해서 문제가 될 만한 답변을 찾아내면 곧바로 규칙을 적용하는 방식으로 프로그램을 수정하고 있기 때문이다.
규칙 기반 대답과 그렇지 않은 대답을 구분하는 방법은 뭘까? 개발자들은 생각보다 구분하기가 어렵지 않다고 설명한다. 응답 속도에 차이가 난다는 것이다. 한 개발자는 “질문에 응답하기가 쉽지 않은 질문에 대해 응답 속도가 다른 답변보다 빠르다면 규칙 기반 대답이라고 생각할 수 있다”고 말했다.
딥러닝 방식으로 데이터셋을 탐색해 얻어진 응답과 단순한 규칙을 통해 산출된 응답 사이에는 반응 속도의 차이가 존재한다는 것이다. 응답 속도는 해당 AI가 어떤 하드웨어를 사용했는지에 대한 판단 단서도 될 수 있다고 관계자들은 설명하고 있다.
응답 신뢰도를 높여야 할 때도 규칙 기반 응답이 활용된다. 예컨대 출처를 확인하기 어려운 여러 곳에서 학습된 데이터를 이용해 AI가 대답하는 것보다 신뢰도가 높은 곳에서 확인된 정보를 제공하는 것이 나을 경우, 신뢰도 높은 출처의 데이터를 우선 활용하라는 규칙을 적용하면 AI는 이를 따르게 된다. 앞으로 AI 서비스의 성취도는 ‘규칙 기반 응답’과 딥러닝 기반 응답을 얼마나 자연스럽게 섞느냐에 달려 있다는 평가도 나온다.
이상은 기자 selee@hankyung.com