이 기사는 국내 최대 해외 투자정보 플랫폼 한경 글로벌마켓에 게재된 기사입니다.
생성형 인공지능(AI) 경쟁이 치열하게 진행되는 가운데 애플은 대규모 AI 시스템을 공개하기보다 기기 기반 AI 기능을 공개하며 다른 테크업체들과 차별화했다.
애플은 5일(현지시간) 미국 쿠퍼티노 애플파크에서 개최한 세계개발자회의 WWDC에서 트랜스포머 언어모델을 사용하는 머신러닝 프로그램을 기반으로 아이폰에서 텍스트를 입력할 때 잘못된 부분을 자동으로 수정하는 기능을 발표했다. 사용자는 이 기능을 기반으로 이전보다 편하게 문자를 보내거나 타이핑을 할 수 있다.
애플이 선보인 AI 기능들은 아이폰이나 아이패드, 혼합현실 헤드셋 비전 프로 등 자사의 기기에 AI 모델을 구축했다는 특징이 있다. 자동 수정 기능도 아이폰에서 실행되는 기능이다. 오픈AI나 구글 등은 대규모언어모델(LLM)을 구축하는 클라우드 기반 모델이다.
애플의 온디바이스 AI는 경쟁사들의 클라우드 기반 AI 모델이 직면하고 있는 데이터 사생활 보호 문제를 피할 수 있다는 장점이 있다. 휴대폰에서 AI 모델을 실행하는 과정에서는 더 적은 데이터만 수집해도 된다.
애플은 AI에 실용적인 방식으로 접근하는 것으로 판단된다. 아이폰이나 아이패드 등 하드웨어를 주로 만드는 회사인 만큼 단순히 기능을 언급하고 그 기능을 가능하게 하는 것이 AI라고 설명하는 방식을 취한다. 구글이나 마이크로소프트(MS) 등 소프트웨어 회사가 특정 AI 모델의 특징과 향후 심화 계획을 발표하는 것과 다른 접근 방식이다.
예를 들어 이이폰 에어팟 프로가 자동으로 노이즈캔슬링(소음제거) 기능을 끄는 것도 AI 모델을 기반으로 한다. 또한 헤드셋 비전프로 헤드셋을 사용해 대화용 아바타를 만드는 것도 AI 기능을 활용한 것이다. 헤드셋으로 사용자의 얼굴과 몸을 3차원(3D)로 스캔한 뒤 생성한 아바타를 헤드셋을 착용한 뒤에 영상에 띄워 이를 활용해 사용자의 움직임을 구현하는 기능이다.
아이폰으로 사진을 찍을 때 고양이나 개도 AI 인식을 통해 사용자의 애완동물 사진을 따로 구분해서 폴더에 정리해준다. 이전에 사람 사진을 찍을 때 얼굴을 인식해 구별했던 기능을 이제 애완동물까지 확대한 것이다.
실리콘밸리=서기열 특파원 philos@hankyung.com