코스피

2,504.94

  • 1.88
  • 0.08%
코스닥

695.39

  • 3.39
  • 0.49%
1/3

김인중이 전하는 딥러닝의 세계<3> AI의 불완전성에 대하여

페이스북 노출 0

핀(구독)!


글자 크기 설정

번역-

G언어 선택

  • 한국어
  • 영어
  • 일본어
  • 중국어(간체)
  • 중국어(번체)
  • 베트남어
딥러닝 출현 이후 AI가 보여준 우수한 성취는 대중들 사이에 AI가 매우 정확하리라는 기대를 확산시켰다. 그러나 실제로는 매우 우수한 AI라도 얼마든지 오류를 범할 가능성이 있다. 때로는 프로 9단보다 높은 기력을 가진 바둑 AI가 어이없는 실수를 범하기도 하고 잘 운행하던 자율주행 AI가 트레일러를 하늘로 착각하기도 한다. 고성능 영상인식 AI라도 취약점을 공략할 경우 약간의 노이즈만 추가함으로써 잘 인식되던 영상이 오인식되도록 만들 수도 있다. 언제나 정답만을 제공할 것처럼 보이던 고성능 AI가 갑자기 오답을 출력하는 이유는 무엇일까?
데이터 기반 AI가 정답을 보장할 수 없는 이유
뛰어난 인재를 일컬어 하나를 가르치면 열을 깨우친다고 한다. 적은 가르침만으로도 깊은 이치를 깨달아 배우지 않은 내용까지도 알 수 있다는 뜻이다. 그런데, AI가 현실적 환경에서 정답을 출력하기 위해 필요한 능력이 이와 유사하다. 딥러닝을 포함한 데이터 기반 AI는 목표 작업을 수행하기 위해 필요한 지식을 학습 데이터로부터 얻는다. 이러한 학습과정은 관찰로부터 지식을 얻는 귀납적 추론의 일종이다. 귀납적 추론의 한계는 “관찰된 객체들을 기반으로 얻은 경험적 지식이 다음 관찰되는 객체에도 동일하게 적용될만큼 일반적인가?”라는 질문에 답하기 어렵다는 점이다. 데이터 기반 AI 역시 학습 데이터에서 얻은 지식을 이용해 새로운 입력에 대한 답을 유추하기 때문에 동일한 한계를 갖는다.
간단한 예로 포유류와 조류를 구분하는 AI를 학습하는 과정을 상상해보자. 포유류의 예제로는 코끼리, 조류의 예제로는 독수리가 주어졌다. AI는 이 예제들로부터 포유류와 조류를 구분하기 위한 규칙을 스스로 학습해야 한다. 그런데, 코끼리를 포유류로, 독수리를 조류로 구분할 수 있는 기준은 코의 길이, 다리의 수, 부리의 유무, 깃털의 유무, 비행능력 등 여러가지가 있다. 이들 중 어떤 규칙을 적용해도 코끼리와 독수리에 대하여는 정확한 답을 얻을 수 있다. AI가 운좋게 일반적 지식인 부리나 깃털의 유무에 의한 규칙을 학습한다면 다른 동물이 입력되어도 정답을 출력할 것이다. 그러나, 다리의 수나 비행능력에 의한 규칙을 학습한다면 실제 상황에서는 인간을 조류로, 닭을 포유류로 오인식할 것이다. 하나를 배워 열을 깨우치듯 AI가 제한된 학습 데이터로부터 일반적인 규칙을 정확히 찾아내면 이상적이겠으나, AI의 입장에서는 위에서 열거한 기준들 중 어느 것이 일반적인 규칙인지를 알기 어렵다. 따라서 AI가 일반적인 지식을 배울 가능성과 학습 데이터에만 국한된 잘못된 지식을 배울 가능성이 공존하는데, 특히 작업이 복잡하고 학습 데이터가 적을수록 잘못된 규칙을 학습할 가능성이 증가한다.
불완전한 AI를 활용하는 방법
그러나, 이러한 불완전성이 반드시 AI의 잠재력을 제한하는 것은 아니다. 무한한 잠재력을 가진 인간 역시 오류를 범하는데, 일부 응용 분야에는 AI의 오류율이 인간의 오류율보다 낮다. 기술이 발전할수록 그러한 분야는 점점 많아질 것이다. 성능이 충분하지 않은 AI라도 인간을 보조하는 목적으로 활용하거나 기술적, 제도적으로 오류를 처리할 수 있는 안전장치를 마련한다면 충분히 효과적으로 활용될 수 있다. 단, AI의 불완전성을 사용자에게 정확히 알려서 AI를 과신하지 않도록 해야한다. 오류가 치명적이지 않은 응용분야에는 더욱 쉽게 AI를 적용할 수 있다. 현재 자연어처리 기술은 성숙도가 높지 않으나 검색어 추천, 동영상 자막 번역, 이메일 자동완성 등에 적용되어 유용하게 사용되고 있다.

또한, AI의 오류를 완전히 막을 수는 없어도 오류의 가능성을 줄일 수는 있다. 가장 근본적인 방법은 다양하고 풍부한 학습 데이터를 확보하는 것이다. 학습 데이터가 다양할수록 잘못된 지식의 문제점이 노출되기 쉬우므로 AI가 일반적인 지식을 선택할 가능성이 증가한다. 또한, 적절한 가정을 적용하면 AI가 좀 더 일반적인 지식을 배우도록 유도할 수 있다. 널리 사용되는 가정 중 하나는 단순성의 가정이다. AI가 학습 데이터를 설명할 수 있는 지식 중 단순한 지식을 더 선호하도록 만들면 ‘오캄의 면도날(Occam’s Razor)’의 원리에 따라 일반적인 지식을 학습할 가능성이 높아진다. 최근에는 AI의 취약점을 발견해 보완하는 기술도 많이 개발되었다. 대표적인 방법은 입력 정보에 약간의 변형을 가하더라도 동일한 결과를 출력하도록 학습함으로써 AI의 일관성을 강화하는 것이다.
AI는 완전하지 않다. 그러나, AI의 불완전성을 잘 이해하고 적절히 활용할 경우 매우 유익한 도구가 될 수 있다. AI의 잠재력이 막대한 가장 중요한 이유는 불완전한 AI를 효과적으로 활용할 수 있는 창의성과 지혜가 인간에게 있기 때문이다.

김인중 한동대 교수


- 염색되는 샴푸, 대나무수 화장품 뜬다

실시간 관련뉴스