챗GPT 등 생성형 인공지능(AI)의 사내 사용을 제한한 삼성전자가 자체적으로 번역이나 문서 요약 등에 최적화된 생성형 AI 개발을 추진 중인 것으로 알려졌다.
2일 업계에 따르면 삼성전자는 지난달 28일 디바이스경험(DX) 부문 임직원을 대상으로 이달부터 사내 PC를 통한 생성형 AI 사용을 일시적으로 제한한다고 공지했다. 이에 따라 DX 부문에서는 챗GPT를 비롯한 기존 생성형 AI의 사내 사용이 제한됐다.
삼성전자 측은 "생성형 AI에 입력된 내용은 외부 서버에 전송·저장된 뒤 AI 학습에 활용되므로 한번 업로드된 내용은 회수, 삭제가 불가능해 회사의 중요 정보가 타인의 질문에 대한 답변으로 활용될 수 있는 등 심각한 보안 위험이 있다"고 설명했다.
삼성전자는 대신 자체적으로 다양한 형태의 AI 모델을 활용해 번역이나 문서 요약, 소프트웨어 개발 지원 등에 최적화된 솔루션을 준비하는 것으로 확인됐다.
정보 유출 우려가 큰 기존의 생성형 AI 사용은 제한하되, 내부적으로 자체 AI 도구를 개발, 보안상 안전한 환경에서 생성형 AI를 활용해 업무 편의성과 효율성을 높이겠다는 것이다.
앞서 지난달 초 DX 부문에서 임직원을 대상으로 챗GPT 사용 관련 설문조사를 한 결과, 상당수 임직원이 빠른 정보 습득과 업무 편리성 등을 이유로 사내에서 챗GPT를 사용한다고 답했다. 특히 번역과 문서 요약 등에서 생성형 AI 사용에 대한 수요가 높았던 것으로 전해졌다.
회사 정보 유출을 우려해 업무 관련 정보의 업로드 차단을 위한 보완책 등도 검토 중이다.
삼성전자는 이와 함께 회사 밖에서 모바일 등으로 생성형 AI를 사용할 경우에도 회사 관련 정보, 본인과 타인의 개인 정보 등은 입력하지 않도록 유의해달라고 당부했다.
이미 미국과 일본 등 해외 일부 기업이 기밀 유출을 우려해 사내 챗GPT 사용 제한에 나서는 등 챗GPT를 비롯한 생성형 AI 오남용 우려나 핵심 정보 유출 가능성에 대한 고민이 커지고 있다.
삼성전자의 DX 부문 설문조사에서도 응답자의 65%는 사내 사용 시 보안상 리스크가 있다고 답한 것으로 알려졌다.
실제로 최근 삼성전자 디바이스솔루션(DS) 부문에서는 사내 메일 본문 업로드, 내부 소스코드 전체 입력 등의 일부 오남용 사례가 확인된 바 있다.
이에 DS 부문에서는 게시판에 챗GPT 오남용을 경고하는 메시지를 공지하고, 각 팀장이 팀원들을 대상으로 챗GPT 사용 가능 범위 등을 교육하고 챗GPT 사용 시 글자수 제한 등의 조치를 하기도 했다.
(사진=연합뉴스)