[AI News] ‘AI Everywhere! 모든 곳에 인공지능 구현’

  • 2019-09-06
  • 신윤오 기자, yoshin@elec4.co.kr



인텔, 고성능 AI 가속기 신경망 프로세서 공개


인텔은 핫칩스 2019 (Hot Chips 2019)에서 곧 출시를 앞둔 고성능 인공지능(AI) 가속기 인텔 너바나(Intel® Nervana™) 신경망 프로세서에 대한 세부 정보를 공개했다.

이 제품군에는 트레이닝용 프로세서인 NNP-T와 추론용 프로세서인 NNP-I가 포함된다. 또한, 이날 인텔 기술진들은 하이브리드 칩 패키징 기술, 인텔 옵테인 DC (Intel Optane DC) 퍼시스턴트 메모리 및 광학 입출력용 칩렛 기술에 대해 발표했다.

생성되는 대량의 데이터 처리하려면

인텔 부사장 겸 AI 제품 그룹의 총괄 매니저인 나빈 라오(Naveen Rao)는 “미래의 '모든 곳에 인공지능'을 구현하기 위해서는 생성되는 대량의 데이터를 기업에서 효율적으로 처리하고 활용할 수 있도록 지원해야 한다”며 “데이터 센터와 클라우드는 복잡한 인공지능 애플리케이션을 위해 성능이 뛰어나고 확장 가능한 범용 컴퓨팅 및 전문화된 가속이 필요하다. 모든 곳에 인공지능이라는 미래의 비전에는 하드웨어에서 소프트웨어, 애플리케이션에 이르는 종합적인 접근 방식이 필요하다”고 전했다.

데이터를 정보로 바꾸고 또 지식으로 전환시키기 위해서는 새롭고 점점 더 복잡한 활용 사례 및 인공지능 기술을 발전시키고 지원할 수 있는 하드웨어 아키텍처와 보완적인 패키징, 메모리, 스토리지 및 인터커넥트 기술이 필요하다. 인텔 너바나 NNP와 같은 전용 가속기는 고객에게 올바른 인텔리전스를 적절한 시기에 제공하기 위해 처음부터 인공지능에 중점을 두고 구축되었다.



인텔 너바나 NNP-T(Neural Network Processor)는 딥러닝 트레이닝의 경계를 확장한다. 실세계의 두 가지 주요 고려 사항을 우선시 하기 위함이다. 첫 번째는 네트워크를 가능한 빨리 트레이닝시키고, 두 번째는 주어진 전력 범위 내에서 수행하는 것이다. 이 딥러닝 트레이닝 프로세서는 유연성을 염두에 두고 구축되어 컴퓨팅, 통신 및 메모리 간의 균형을 유지한다. 미래의 딥러닝 요구를 충족하기 위해 인텔 너바나 NNP-T는 유연성과 프로그래머블 기능으로 구축되어 기존 워크로드와 추후에 나타날 새로운 워크로드 모두에서 다양한 워크로드를 가속화 하도록 설계되었다.

인텔 너바나 NNP-I는 추론을 위해 특수 제작되어 대규모로 딥러닝 구축을 가속화하도록 설계되었으며, 모든 주요 데이터 센터 워크로드에 걸쳐 와트 당 업계 최고의 성능을 제공하기 위해 아이스 레이크(Ice Lake) 코어를 이용한 인텔의 10나노 공정 기술을 활용한다.

또한 인텔 너바나 NNP-I는 성능이나 전력 효율성 저하 없이 높은 수준의 프로그래머블 기능을 제공한다. 인공지능이 모든 워크로드에서 보편화됨에 따라 쉬운 프로그래밍, 짧은 지연 시간, 빠른 코드 포팅 및 모든 주요 딥러닝 프레임워크 지원을 포함하는 전용 추론 가속기를 사용하여 기업은 데이터의 모든 잠재력을 실행 가능한 통찰력으로 활용할 수 있다. 인텔 너바나 NNP-I (코드명 스프링 힐(Spring Hill))의 설계 및 아키텍처에 대한 추가 기술 정보는 발표자료를 통해 확인할 수 있다.
 

<저작권자(c)스마트앤컴퍼니. 무단전재-재배포금지>

본 기사의 전문은 PDF문서로 제공합니다. (로그인필요)
다운로드한 PDF문서를 웹사이트, 카페, 블로그등을 통해 재배포하는 것을 금합니다. (비상업적 용도 포함)
 PDF 원문보기


  • 100자평 쓰기
  • 로그인

태그 검색
본문 검색
TOP