코스피

2,503.52

  • 0.46
  • 0.02%
코스닥

692.51

  • 0.51
  • 0.07%
1/3

"구글, 직원들에 챗GPT·바드에 회사 중요정보 입력말라"

페이스북 노출 0

핀(구독)!


글자 크기 설정

번역-

G언어 선택

  • 한국어
  • 영어
  • 일본어
  • 중국어(간체)
  • 중국어(번체)
  • 베트남어
"구글, 직원들에 챗GPT·바드에 회사 중요정보 입력말라"
로이터 통신 보도…"AI가 스스로 복제 및 유출 가능성"



(샌프란시스코=연합뉴스) 김태종 특파원 = AI 챗봇 경쟁에 뛰어든 구글이 직원들에게 챗GPT와 같은 생성형 인공지능(AI) 사용에 주의를 당부하고 나섰다.
구글 모회사인 알파벳은 직원들에게 생성 AI에 회사 기밀 정보를 입력하지 말라고 경고했다고 로이터 통신이 4명의 소식통을 인용해 16일(현지시간) 보도했다.
구글이 경고한 생성 AI에는 전 세계적으로 큰 인기를 끌고 있는 오픈AI의 챗GPT와 함께 자사가 개발한 생성 AI 바드도 포함됐다.
구글은 최근 업데이트한 개인정보보호 지침에서도 "바드와 대화하는데 있어 비밀이 유지돼야 하거나 민감한 정보는 넣지 말라"고 했다고 소식통은 전했다.
이는 AI 개발 회사들이 이용자들이 보낸 메시지를 사용해 AI 챗봇의 언어 이해를 훈련시키기 때문이다.
이에 AI 개발 회사가 이용자의 채팅을 읽고 이용자 회사의 내부 정보를 볼 수 있고, 또 AI가 이를 스스로 복제하거나 유출할 수 있는 것으로 알려졌다.
구글은 또 엔지니어들에게 코드를 작성할 때도 AI 도구를 사용하지 말라고 주문했다. AI가 프로그래머들에게 도움이 될 수 있지만 바람직하지 않은 코드 제안을 할 수도 있기 때문이라고 설명했다.
앞서 월마트나 MS, 아마존 등도 구글과 같이 직원들에게 회사 중요 정보 유출과 관련해 경고를 한 바 있다. 챗GPT가 자사 내부 정보와 비슷한 답을 내놓는 것이 발견됐기 때문이라고 로이터 통신은 설명했다.
그러나 구글은 AI 챗봇 개발사라는 점에서 이번 주의가 다른 기업들보다 관심을 더 끈다고 통신은 전했다.
taejong75@yna.co.kr
(끝)


<저작권자(c) 연합뉴스, 무단 전재-재배포 금지>
- 염색되는 샴푸, 대나무수 화장품 뜬다

실시간 관련뉴스