구글(Google)이 내부 직원들을 상대로 AI(인공지능)의 위험성을 경고하는 메시지를 배포한 것으로 알려졌다. AI 챗봇의 내재된 취약성이 민감한 기업 정보를 유출할 수 있다는 점을 우려한다는 점에서 자체 바드AI(Bard AI)의 상업적 활용에 의문이 제기될 수 있다.
로이터는 익명의 소식통을 인용해 구글이 지난 15일(현지시간) 직원들에게 특정 유형의 데이터를 챗봇에 입력하지 말 것을 경고했다고 보도했다. 지난 6월 초 업데이트된 구글의 개인정보 보호 공지에는 "바드AI 대화에 기밀 정보나 민감한 정보를 포함시키지 말라"고 명시돼 있다.
연구자들은 일반인 리뷰어가 관련 채팅을 읽을 수 있을 뿐 아니라, 유사한 AI가 입력된 데이터를 재현해 신경망을 훈련시켜 백도어 유출을 일으킬 수 있다는 점을 발견했다.
한편, 현재 빅테크 거대 기업들은 생성형 AI를 기반으로 하는 최초의 킬러 애플리케이션(앱) 개발을 두고 치열한 경쟁을 벌이고 있다. 마이크로소프트가 투자한 OpenAI는 지난해 말 ChatGPT를 공개해 전 세계를 강타하며 구글 딥마인드에 첫 타격을 가했다.
ChatGPT는 변호사 시험과 같은 전문 입학시험까지 통과할 수 있는 능력으로 인한 기대감과 함께 AI의 '기술 거품' 논란을 불러왔다.
특히 높아진 보안 위험은 AI의 상업성에도 심각한 영향을 미칠 수 있다. 구글은 현재 데이터를 공개 AI 모델에 흡수하지 않는 비즈니스 고객을 위한 고가 버전을 포함해 180개 이상의 국가에서 40개 언어로 바드AI를 출시했다.
문제는 구글 내부에서조차 자체 챗봇에 대한 신뢰를 담보하지 못하고 있다는 점이다. 지난해에도 구글은 AI가 자체 지능을 가졌다고 거짓 주장한 소프트웨어 직원을 해고한 바 있다. 하지만 대형 언어 모델은 정확한 결과를 예측하기 위해 확률을 활용해 인간 지능을 모방할 뿐이다.
사실 AI에 대한 윤리적 문제는 테슬라의 CEO 일론 머스크의 OpenAI 투자로 이어졌지만, 결국 마이크로소프트가 OpenAI에 투자하면서 빅테크의 경쟁구도가 본격화 됐다.
/ 포춘코리아 공인호 기자 ball@fortunekorea.co.kr