UPDATED. 2020-05-29 14:21 (금)
[포춘US]AI 스페셜 | 자연어 처리 분야의 혁신 알고리즘들
[포춘US]AI 스페셜 | 자연어 처리 분야의 혁신 알고리즘들
  • J.K. 기자
  • 승인 2020.03.31 12:07
  • 댓글 0
이 기사를 공유합니다

AI의 한 분야인 자연어 처리에서 잇따라 전기가 마련되며, 혁명적인 신상품들이 빠르게 개발되고 있다.

구글은 작년 10월 검색 엔진의 작동 방식에 관해 5년 만에 가장 큰 변화를 발표했다. 알고리즘이 사업에 차지하는 중요성을 고려할 때, 이 IT 공룡은 검색 작동 방식을 가볍게 다루지 않을 것이다. 하지만 새로운 버전은 구글이 몇 년간 달성하려고 노력했지만 성공하지 못한 기능들을 추가했다.

개선 작업 덕분에 알고리즘은 마침내 ‘for’와 ‘to’ 같은 전치사가 의미를 어떻게 변화시키는지 이해하게 됐다. 사람들이 "약국에서 누군가를 위한 약을 사줄 수 있어?"를 검색하면 일반적으론 처방전을 받아야 한다고 답변에 그친다. 하지만 이제는 (약이 필요한) 특정인의 처방전을 받아와야 한다고 구체적인 답변을 보여준다. 구글은 “이 업데이트가 영어 검색의 10%에 해당하는 답변을 향상시킬 것”이라고 밝혔다. 구글이 초당 6만 3,000개의 검색을 처리하는 점을 고려하면, 이 비율은 결코 작지가 않다.

이런 비약적인 진전은 자연어 처리(축약해서 NLP)라고 불리는 AI 분야의 혁명적인 발전으로 가능해졌다. NLP는 언어를 조작할 수 있고, 어느 정도 ‘이해’할 수 있는 소프트웨어를 가리킨다.

약 10년간 이어지고 있는 현재의 AI 호황은 컴퓨터 시력—이미지를 분류하고 조작할 수 있는 소프트웨어—의 진보로 촉발됐다. 대부분의 경우 시리와 알렉사 같은 디지털 비서들의 출현에도 불구하고, NLP의 발전은 느릿하게 진행되는 것처럼 보였다.

그러나 지난 18개월 동안, 연구자들은 다양한 언어 과제에서 전례 없는 능력을 가진 알고리즘을 만드는 데 큰 성과를 냈다. 게다가, 이 새로운 알고리즘은 아주 빠른 속도로 연구실을 벗어나 실제 제품으로 구현되고 있다.

NLP 혁명은 더 나은 검색 엔진과 더 똑똑한 채팅봇을 약속한다. 또한 법적 문서와 의료 기록을 자동적으로 분석하고, 심지어는 이런 문서와 기록을 작성할 수 있는 시스템으로 발전할 수 있다. 하지만 일부 사람들은 NLP가 훨씬 더 많은 일을 할 것이라고 믿는다. 그들은 더 나은 언어 이해가 인간 수준의 AI를 여는 열쇠가 될 수도 있다고 생각한다. 혁명의 원동력이 되고 있는 몇 가지 알고리즘을 간략히 살펴본다.

일러스트=포춘US
일러스트=포춘US

-버트(BERT)

구글 브레인이 개발한 ‘트랜스포머’라고 불리는 버트 BERT는 새로운 형태의 신경망을 기반으로,  구글 검색을 향상시킨 알고리즘이다(BERT는 ‘Bidirectional Encoder Representations from Transformers’의 약어다. NLP 연구원들이 재미로 짐 헨슨 Jim Henson이 제작한 작품들 /*역주: Muppets Show, Sesame Street에 나오는 등장 인물들의 이름이 알고리즘 이름으로 사용되고 있다. Bert 역시 세서미 스트리트에 나오는 등장 인물이다/에서 알고리즘의 이름을 계속 차용하고 있다. 이 밖에도 엘모 ELMo, 그루버 Grover, 빅 버드 Big BIRD, 어니 ERNIE, 커밋 KERMIT 같은 것들이 있다. 이들 모두는 ‘무펫의 등장인물’로 알려져 있다.

구글은 버트 연구서를 출간했을 뿐만 아니라, 알고리즘을 공개하기도 했다. 그것은 빠르게 버트 기반의 혁신을 탄생시켰다. MS는 현재 빙 검색 엔진을 강화하기 위해, 버트를 사용하고 있다. 링크트인의 검색 결과는 이제 리버트 LiBERT라는 불리며, 버트에서 꼭 필요한 것만 취해 만든 알고리즘을 사용해 보다 더 효율적으로 분류된다. 그리고 페이스북은 로버타 RoBERTa라는 새로운 알고리즘을 만들었다. 이 알고리즘은 연구할 디지털 자료가 적은 버마어 같은 소수 언어로 표현된 혐오 발언과 왕따를 더 잘 식별하기 위해 고안됐다.
 

-지피티-2(GPT-2)

샌프란시스코 소재의 AI 스타트업 오픈AI는 800만 개의 인터넷 페이지에서 스크랩 된 15억 개의 언어 매개변수(최대 버전의 BERT 훈련에 사용하는 3억 4,000만개의 다른 변수들의 대항마)를 이 새로운 NLP 알고리즘에게 교육시켰다. 결과적으로 이 알고리즘은 인간이 작성한 몇 문장에서 대부분 일관성 있는 몇 단락의 산문을 쓸 수 있게 됐다. 그리고 보다 더 유창한 디지털 비서를 제공할 수 있다.


-시티알엘(CTRL)

세일즈포스의 AI 연구소는 지금까지 발표된 가장 큰 언어 모델 중 하나를 만들었다. GPT-2보다 약간 더 큰 이 알고리즘은 사용자에게 알고리즘이 쓰는 글의 장르와 스타일을 보다 쉽게 제어할 수 있는 능력을 제공한다(따라서 이름도 컨트롤 키를 의미하는 CTRL이다).

BERT와 마찬가지로, CTRL의 큰 장점 중 하나는 회사가 자체 데이터가 거의 없는 상태에서, 미리 학습된 모델을 이용해 비즈니스 니즈를 충족시켜줄 수 있다는 점이다. 세일즈포스의 수석 과학자 리처드 소처 Richard Socher는 "이미 2,000개의 사례가 있지만 이 알고리즘의 성능은 여전히 더 개선될 것”이"라고 말했다. -J.K.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.