본문 바로가기

  • 2025.02.26
  • ⓒAI타임스 / 임대준 기자

딥시크가 저비용 고효율을 가능하게 만든 '전문가 혼합(MoE)' 방식의 핵심 요소를 오픈 소스로 메이저 놀이터 순위했다. 이는 지난주 예고한 핵심 기술 오픈 소스 메이저 놀이터 순위 예고에 따른 것이다.

딥시크는 25일 깃허브를 통해 '딥EP(Deep Expert Parallelism)'라는 인공지능(AI) 모델 통신 라이브러리를 메이저 놀이터 순위했다.

이는 'V3' 및 'R1' 모델의 가장 큰 특징으로 꼽히는 MoE를 효율적으로 작동하도록 조정한 것이다. 즉, 다수의 전문가 모델 중 쿼리에 적당한 특정 전문가를 선택하고 이 모델의 병렬 계산(EP) 중 발생하는 데이터 처리량을 높이고 대기 시간을 줄이는 GPU 커널을 제공하는 것이다.

(후략)

[원본기사 :https://www.aitimes.com/news/articleView.html?idxno=168317]

맨 위로
맨 위로