본문 바로가기

2024.10.11

ⓒ인공지능신문/최광민 기자

대형언어모델(LLM) 추론 서비스는 단순한 챗봇을 넘어 이미지, 음성, 동영상까지 생성할 수 있는 멀티모달 생성인공지능(Generative AI)로 발전하고 있다. 하지만 이러한 초거대 언어모델 추론 서비스를 실행하려면 수천 개의 GPU가 탑재된 대규모 서버 등 대규모 AI 인프라 시스템이 필요하다.

이처럼, 막대한 자원과 더불어이 하드웨어와 소프트웨어를 대규모로 실험하기 위한 시뮬레이션 인프라 또한 필수적이다. 여기에, KAIST 전산학부 박종세 교수 연구팀이챗GPT와 같은 LLM 추론 서비스를 실행하는 대규모 시스템을 여러 가지 하드웨어와 소프트웨어를 추가해 시뮬레이션할 수 있는 '시뮬레이션 인프라 툴'을 오픈소스로 개발했다.
(후략)

[원본기사 :https://www.aitimes.kr/news/articleView.html?idxno=32409]

맨 위로
맨 위로