관련 논문 2개 함께 발표...2800억개 매개변수로 구성 GPT-3보다 크기 조금 크지만 MMLU 성능은 2배 능가 검색 언어모델 RETRO, 25분의 1 크기로 GPT-3와 같은 성능 딥마인드가 초거대 인공지능(AI) 언어모델 개발 경쟁에 처음 합류했다. 모델 크기를 늘리는 여타 기업과 달리 AI 학습 효율을 높여 개발 비용을 줄이는 전략을 택했다. 9일(현지시간) 딥마인드는 자체 개발한 초거대 AI 언어모델 고퍼(Gopher)를 공개했다. 고퍼의 성능을 증명하는 논문과 함께 이날 딥마인드는 검색 언어모델(Retrieval Language Model)과 거대 언어모델의 윤리 문제를 각기 다룬 논문 2개를 함께 발표했다. 먼저 고퍼의 크기에 대해 살펴보자면 2800억개 매개변수로 구성됐다. 오픈AI의 ..