본문 바로가기

DB

거대 언어 모델 추론 연산 가속 AI 반도체 개발 (LPU)

반응형

LPU 개발


> 챗GPT 가성비 2.4배 높이는 반도체
> KAIST 연구진
> 메모리 대역폭 사용 극대화
> 연산 속도 가속 엔진
> 자체 네트워크 시스템 내장
>엔비디아 A100 기반 슈퍼컴퓨터보다 대비 고성능
>> 50% 가량 성능 향상
>> 2.4배 가격대비 성능 강화

* 챗GPT 연산시 사용되는 파라미터 : 1750억개
** GPT-1 : 1억개
** GPT-2 : 15억개

반응형