코스피

2,455.91

  • 48.76
  • 1.95%
코스닥

678.19

  • 16.20
  • 2.33%
1/3

"AI서비스, 사생활 침해·사회적 차별 없어야"

페이스북 노출 0

핀(구독)!


글자 크기 설정

번역-

G언어 선택

  • 한국어
  • 영어
  • 일본어
  • 중국어(간체)
  • 중국어(번체)
  • 베트남어
개인정보보호위원회가 인공지능(AI) 서비스 개발자와 운영자들이 지켜야 할 사항을 배포했다. 개인정보를 무단으로 사용해 제재를 받은 AI 챗봇 ‘이루다’ 사태와 같은 개인정보 침해를 방지하기 위한 조치다.

개인정보보호위는 31일 AI 설계·개발·운영 과정에서 개인정보를 안전하게 처리하기 위해 지켜야 할 개인정보보호법상 주요 의무를 알기 쉽게 정리한 ‘AI 개인정보보호 자율점검표(개발자·운영자용)’를 확정해 공개했다. 업무처리 전 과정에서 지켜야 할 6대 핵심 원칙(적법성·공정성·안전성·책임성·투명성·참여성)과 이를 기반으로 점검해야 할 16개 항목, 54개 확인 사항이 포함됐다.

단계별 주요 점검 항목을 보면 기획·설계 단계에서는 개인정보보호 중심설계 원칙을 적용하고 침해가 우려되는 경우 개인정보 영향평가를 수행하도록 했다. 개인정보를 수집할 때는 적법한 동의 방법, 동의 이외의 수집 근거 확인, 공개 정보 등 정보 주체 이외로부터 수집 시 유의사항을 점검하도록 했다. 개인정보를 이용 및 제공할 때는 수집 목적 안에서 이뤄지는지, 목적 외 이용은 적법한 근거가 있는지 확인해야 한다.

동의 없이 가명 처리해 활용하려는 경우 과학적 연구·통계작성 등 허용된 목적인지 점검하도록 하고, 가명 처리 시 유의사항과 가명 정보 공개 제한 등도 안내했다.

개인정보보호위의 지침 발표에 업계는 우려 섞인 반응을 나타냈다. AI 관련 한 스타트업 대표는 “개인정보 수집 시 구체적 이용 목적을 쓰라는 것은 지나치다”며 “자율점검표가 신규 서비스 출시를 가로막을 가능성이 크다”고 지적했다.

이지훈/이시은 기자 lizi@hankyung.com


- 염색되는 샴푸, 대나무수 화장품 뜬다

실시간 관련뉴스