Search

LLaMA

개요

기존 Foundation model의 문제점
Inference의 computation 고려 X
성능 향상에 초점 맞추며 파라미터 늘림
현실적으로 일반적인 기업에서 서비스 거의 불가능
추론 서비스를 고려한 Foundation model 필요

요약

모델
4가지 버전의 모델 공개 (6.7B, 13B, 32.5B, 65.2B)
13B 모델은 Single GPU(V100-32G)에 실행 가능
최신 모델 연구를 반영해 Transformer 구조 수정
성능
LLaMA(13B) : GPT3(175B)보다 1/10 이상 모델 사이즈가 작지만, 모든 벤치마크에서 GPT3(175B)를 압도하는 성능 보임
LLaMA(65B) : DeepMind의 Chinchilla(70B)과 Google Research의 PaLM(540B)와 같은 LLM 만큼 경쟁력이 있음
데이터
공개 데이터만으로 학습

의의

이미지 생성 분야에서 Stable diffusion의 코드와 파라미터가 공개되며 급격한 발전을 이루었듯이, 언어 모델 분야에서 LLaMA가 공개되며 빠른 변화를 가져옴