인텔 비전 2024에서 신규 고객, 파트너 공개 및 AI 전반에 걸친 협업
인텔의 연례 고객 및 파트너 컨퍼런스인 인텔 비전 2024(Intel Vision 2024)에서 인텔은 기업용 생성형 AI(GenAI)를 위한 성능, 개방성 및 선택권을 제공할 인텔 가우디 3(Intel Gaudi 3) 가속기와 함께 생성형 AI 도입 가속화를 위한 새로운 개방형 스케일러블 시스템 스위트, 차세대 제품 및 전략적 협력을 발표했다.
지난해 생성형 AI 프로젝트를 성공적으로 업무에 도입한 기업이 10%에 불과한 가운데, 인텔의 최신 제품들은 기업이 AI 이니셔티브를 확장하는데 직면한 도전 과제에 대응할 수 있다.
인텔 CEO 팻 겔싱어(Pat Gelsinger)는 “혁신은 전례없는 속도로 발전하고 있으며, 반도체가 이 모든 것을 가능하게 한다. 또한 모든 기업이 빠르게 AI 기업으로 거듭나고 있다”라며 “인텔은 PC부터 데이터센터, 엣지에 이르기까지 기업 전반의 모든 곳에 AI를 가능하게 하고 있다. 인텔의 최신 가우디, 제온 및 코어 Ultra 플랫폼은 변화하는 고객과 파트너의 요구를 충족하고 앞으로의 엄청난 기회를 활용할 수 있도록 유연한 솔루션 세트를 제공하고 있다”고 밝혔다.
기업은 생성형 AI를 파일럿 단계에서 업무에 적용하는 것으로 확장하고자 한다. 이를 위해서는 복잡성, 단편화, 데이터 보안 및 규정 준수 요구 사항을 해결하면서 인텔 가우디 3(Intel Gaudi 3) AI 가속기와 같이 성능, 비용 및 전력 효율성이 뛰어난 프로세서를 기반으로 구축된 즉시 도입 가능한 솔루션이 필요하다.
인텔 가우디 3 AI 가속기, AI 시스템 구동
인텔 가우디 3 AI 가속기는 공통 표준을 따르는 이더넷을 통해 최대 수만 개의 가속기를 연결해 AI 시스템을 구동한다. 인텔 가우디 3는 BF16에 대해 4배 더 많은 AI 컴퓨팅 및 기존 모델 대비 1.5배 커진 메모리 대역폭을 지원한다. 이 가속기는 생성형 AI를 대규모로 배포하려는 글로벌 기업에게 AI 학습 및 추론 분야에서 획기적인 도약을 지원할 수 있다.
엔비디아 H100과 비교하여 인텔 가우디 3는 70억개 및 130억개의 매개변수가 있는 라마2(Llama2) 모델과 GPT-3 1750억개 매개변수 모델 전체에서 평균3 50% 더 빠른 학습 시간을 제공할 것으로 예상한다. 또한 인텔 가우디 3 가속기 추론 처리량은 평균적으로 H100보다 50%1, 전력 효율성의 경우 라마(Llama) 70억개 및 700억개 매개변수와 팔콘(Falcon) 1800억개 매개변수 모델에서 평균 40% 더 우수할 것으로 예상한다.
인텔 가우디 3는 개방형 커뮤니티 기반 소프트웨어와 업계 표준 이더넷 네트워킹을 제공한다. 또한 기업은 싱글 노드에서 클러스터, 슈퍼 클러스터, 수천 개의 노드가 있는 메가 클러스터로 유연하게 확장할 수 있으며, 최대 규모의 추론, 미세 조정 및 학습을 지원한다.
인텔 가우디 3는 2024년 2분기에 델 테크놀로지스(Dell Technologies), HPE, 레노버(Lenovo), 슈퍼마이크로(Supermicro)를 비롯한 OEM 시스템에 탑재될 예정이다.
네이버클라우드 하정우 AI 이노베이션 센터장은 이번에 발표한 네이버-인텔 협력에 대해 “네이버는 차세대 LLM 서비스를 위해 가장 강력하고, 혁신적이며 안전한 멀티모달 LLM모델을 개발하고 배포하겠다는 비전을 가지고 있다. 인텔과 긴밀하게 협력하여 스타트업과 학계를 포함하는 생태계로 확산해 혁신적인 생성형 AI 모델과 애플리케이션을 개발하도록 지원하고 글로벌 기업고객에게 LLM학습 클라우드 인스턴스를 제공할 것”이라며, “이를 위해 가우디를 검증하고 이 결과를 통해 가우디 기반 LLM 학습 인프라를 구축할 것을 기대한다”고 밝혔다.
<저작권자©스마트앤컴퍼니. 무단전재-재배포금지>