얼마 전에 제프리 힌튼이 인공지능(AI)의 위험을 경고한 것이 세계적으로 화제가 됐다. 그는 ‘심층학습의 대부(代父)’ 가운데 하나로 꼽히는 영국 과학자다. 그런 사람이 “너른 인공지능(general AI)이 제기하는 존재적 위험(existential risk)”을 언급했으니, 인공지능을 연구하는 사람들로선 아군 장수가 적군에 투항해서 쳐들어오는 상황이 됐다.
이제 인공지능 개발을 규제해야 한다는 주장이 지식인 사회를 뒤덮었다. 실제로 유럽에선 상당히 엄격한 규제를 추진하고 있다. 그런 움직임의 영향은 조만간 우리 사회에도 미칠 것이다.
인류의 지능을 넘어선 초지능(superintelligence)에 대한 논의는, 특히 인류에 적대적인 초지능이 제기하는 위험에 대한 경고는, 오래전에 나왔다. 그런 논의를 살피는 것은 우리 시민들이 선동적 지식인에게 휘둘리지 않도록 하는 데 도움이 될 것이다.
먼저, 초지능이 컴퓨터의 발전을 통해 나오리라는 것에 대해선 모두 동의한다. 한때는 인간과 컴퓨터의 결합(cyborg)도 고려됐지만, 이제는 가능성이 없다고 여겨진다.
초지능을 지닌 컴퓨터의 모습에 관해선 두 견해가 있다. 하나는 로봇의 형태를 하리라는 견해다. 미국 작가 아이작 아시모프의 <로봇> 연작(1940년대)으로 널리 알려진 모습이다. 다른 하나는 많은 컴퓨터가 인터넷으로 연결돼 하나의 거대한 개체를 이루면, 의식과 의지가 창발(emergence)하리라는 견해다. 미국 작가 로버트 하인라인의 <달은 엄격한 정부(情婦)다>(1966)에서 처음 등장한 모습이다. 월면 공동체의 많은 컴퓨터가 연결돼 출현한 초지능이 전쟁으로 컴퓨터들이 많이 파괴되자 사라지는 상황을 그렸다.
초지능이 나올 시기에 관해선, 전문가들은 대체로 한 세대 뒤에 나오리라고 예측하는 경향을 보인다. 1965년 미국 정치학자 허버트 사이먼은 인간만큼 유능한 기계가 1985년께 나오리라고 예측했다.
1993년에 미국 작가 버너 빈지는 예언했다. “30년 안에, 우리는 초인간적 지능을 창조할 기술적 능력을 갖출 것이다. 조금 뒤, 인류의 시기는 끝날 것이다.” 그는 이런 상황을 기술적 특이점(technological singularity)이라 불렀다. 이제 2023년이 됐지만, 초지능의 기미는 없다. 기술적 특이점이란 개념을 열정적으로 전파해온 미국 발명가 레이 커즈와일은 2005년 초지능이 2045년까지는 나오리라고 봤다. 이런 예측 실적은 초지능이 전문가들의 예측보다 훨씬 늦게 나오리라는 것을 가리킨다.
그러면 초지능은 인류에 어떤 태도를 보일까? 빈지는 ‘인류의 시기’ 이후 인류의 처지를 비관했다. “인류의 육체적 멸종은 하나의 가능성이다. 그러나 육체적 멸종은 가장 두려운 가능성이 아닐지도 모른다.” 인류가 초지능의 노예들이 될 수도 있다는 얘기다. 이런 비관적 전망이 이번에 분출한 인공지능 연구 반대 운동을 미는 원동력이다. 그런 비관적 전망은 본질적으로 낯선 사람들을 경계하는 사람의 본능을 초지능에 투사한 데서 나온다.
찬찬히 살피면, 그런 비관적 전망은 근거가 없음이 드러난다. 무엇보다도 초지능은 비생물적 존재다. 따라서 초지능은 생태계에서 인류와 경쟁하지 않는다. 실은 공생 관계를 유지할 것이다. 게다가 비관적 전망은 경제적 바탕이 없다. 초지능이 보다 나은 컴퓨터를 설계하는 것과 그것을 실제로 생산해서 운용하는 것은 다르다. 초지능의 몸을 이루는 수많은 컴퓨터와 프로그램은 인류가 만들어서 지속적으로 써야 유지된다. 왜 초지능이 자신의 몸을 키우고 마음을 향상시키는 인류에 적대적 태도를 보일까?
그런 상상된 위험 때문에 인공지능 연구를 멈추는 것은 거대한 어리석음이다. 실은 성공하지도 못하면서, 전체주의 사회에 기술적 우위를 안겨줄 따름이다.
지구 생태계에 부담을 덜 주면서 인류 문명을 발전시키려면 궁극적으로 생산성이 높아져야 한다. 생산성을 높이려면 기술이 지속적으로 발전해야 한다. 이제 그런 기술의 핵심은 인공지능이다. 우리는 낯선 것을 두려워하는 우리의 천성을 다스리면서 합리적으로 선택해야 한다.
뉴스