최근 인공지능(AI) 개발 경쟁이 거세지면서 국내 민관학 보안 연구도 활발해지고 있다. 과학기술정보통신부는 지난해 12월 ‘AI 보안 안내서’를 발간했고, 국가정보원도 AI 보안 시스템 관련 평가 체계를 신설하는 등 국내에서도 관련 논의가 이어지고 있다.
이런 가운데, LG전자가 서울대와 손잡고 AI 보안 산학 연구센터인 ‘시큐어드 AI 연구센터’를 올해 초 서울대에 설립한다. 양측은 지난해 12월 업무협약(MOU)을 체결했으며 LG전자는 3년간 30억원을 투자해 서울대와 보안 중심 AI 기술을 공동 연구할 계획이다. 민간기업이 대학에 단일 연구 주제로 투자를 집행하는 사례가 흔치 않은 만큼 LG 내부에서도 ‘이례적’이라는 평가가 나온다. 서울대 역시 ‘보안 AI’를 주제로 한 산학 연구는 처음이다.
센터는 대규모언어모델(LLM) 에이전트 보안 강화, 데이터 유출 방지 등 ‘안전한 AI 생태계’를 만드는 기술에 초점을 둔다. 특히 소프트웨어(SW) 개발·배포·운영 전 과정에 보안체계를 적용하는 ‘머신러닝 특화 보안 운영(MLSecOps)’ 모델도 개발한다는 방침이다. 이병영 서울대 전기정보공학부 교수는 “LLM이 더 발전했을 때 어떤 보안 요소가 필요할까 염두에 두고 선제적으로 기술을 확보하려는 것”이라고 설명했다. 연구진은 홍용택 전기정보공학부 학부장을 비롯한 서울대 교수진 10명에 연구원 30여 명으로 꾸려진다.
연구 대상은 로봇·가전·TV·컴퓨터 등 하드웨어 제품 전반이다. LLM이 제품에 탑재됐을 때 보안성을 어떻게 검증할지, 공격자 관점에서 취약점을 어떻게 찾아낼지까지 포함해 ‘제품 단위’ 테스트와 검증을 반복하는 형태로 기술을 쌓겠다는 구상이다. 장기적으로는 LG 제품 적용을 넘어 범용 솔루션으로 확장하는 로드맵도 함께 그린다.
센터는 데이터 활용과 유출 위험 사이 딜레마를 풀기 위한 ‘컨피덴셜 컴퓨팅’ 기술도 연구한다. 이 교수는 “데이터는 공유돼야 가치가 생긴다”며 “센터는 데이터를 안전하게 공유하는 방법을 연구할 것”이라고 했다. 국방이나 의료처럼 데이터 반출이 어려운 분야에서 데이터는 외부로 내보내지 않되, 주어진 폐쇄 환경 내에서 데이터를 안전하게 활용하고 필요한 도구를 자유롭게 사용할 수 있는 ‘안전지대’를 개발하겠다는 취지다. 서울대는 오는 1학기부터 정보보호 전문 대학원을 운영하며 차세대 보안 전문 인력 양성도 시작한다.
최영총 기자 youngchoi@hankyung.com