최근 인공지능(AI) 기술이 크게 발전하면서 우리에게 엄청난 기회를 제공하게 됐다. 2030년까지 약 16조달러(약 2경1440조원)에 달하는 가치를 창출할 것이라는 연구 결과가 있을 정도다. AI는 단기적으로는 경제 성장을 촉진하고 국내총생산(GDP)을 증가시킬 뿐만 아니라 신약 개발, 식량난, 기후 변화 등 인류가 직면한 가장 시급한 과제를 해결하는 데 도움을 줄 것으로 예상되고 있다.
AI가 사회·경제적으로 미칠 영향이 큰 만큼 그 위험도도 높다. 영화 터미네이터에서 인간을 멸망시키려는 ‘스카이넷’ 같은 어마어마한 AI 악당이 아니더라도 AI가 해악을 끼칠 여지는 너무나 많다. 가장 가까운 예로 우리가 매일 같이 접하는 유튜브 알고리즘만 해도 그렇다. 유튜브 알고리즘은 내가 본 영상을 기반으로 비슷한 내용의 영상을 계속 추천한다. 따라서 내가 어떤 편향적인 내용의 영상을 보게 되면 나는 점점 더 편향적인 사람이 될 가능성이 높아지는 것이다.
가짜 정보를 진짜처럼 전달하는 ‘환각(hallucination)’ 현상은 더 심각하다. 많은 생성형 AI는 틀린 정보를 마치 정확한 정보인 것처럼 그럴듯하게 전달하는 경우가 있다. 그런데 이 정보가 심각한 영향을 초래할 수 있는 민감한 내용이라면 어떨까? 예를 들어 환자에게 투여할 약물의 적정량을 잘못 알려준다든지, 기업 투자와 관련된 분석 자료에 잘못된 정보를 전달한다면 사람의 생명을 위험하게 하거나 기업에 큰 손실을 안길 수도 있을 것이다.
AI가 지닌 위험성 때문에 일론 머스크 테슬라 최고경영자(CEO), 스티브 워즈니악 애플 창업자 등은 AI 연구 개발을 일시적으로 중지해야 한다는 의견을 내기도 했다. 그러나 이는 현실적으로 가능하지 않은 주장이라고 생각한다. 그보다는 AI가 쓰이는 상황에 대한 현명하고 정밀한 규제를 통해 AI의 오용을 막고, AI를 사용한 기업이나 사람들의 책임을 강화하는 것이 더 나은 방법일 것이다. 예를 들어, 고용 의사 결정에 AI를 사용하는 기업은 고용 차별 문제가 발생하면 그에 대해 책임을 지고, 소프트웨어 개발자가 사기 행위를 조장하는 금융 AI를 만들 경우 이로 인해 발생할 수 있는 피해에 대해 책임을 지도록 하는 것이다.
2018년 IBM은 ‘신뢰와 투명성을 위한 세 가지 원칙’을 발표한 바 있다. 첫째, AI의 목적은 인간을 대체하는 것이 아니라 인간의 능력을 강화해 돕는 것이다. 둘째, 데이터와 이를 활용해 AI로 만든 결과물은 AI나 데이터 시스템을 제공하는 기업이 아닌 원래 소유자의 것이다. 세 번째, AI 시스템은 투명해야 하고 그에 의한 결정은 설명 가능해야 한다. 왠지 5년이 지난 지금 더 큰 울림으로 다가오는 내용이다.