[AI News] ‘AI Everywhere! 모든 곳에 인공지능 구현’
2019-09-06 신윤오 기자, yoshin@elec4.co.kr
.jpg)
인텔, 고성능 AI 가속기 신경망 프로세서 공개
인텔은 핫칩스 2019 (Hot Chips 2019)에서 곧 출시를 앞둔 고성능 인공지능(AI) 가속기 인텔 너바나(Intel® Nervana™) 신경망 프로세서에 대한 세부 정보를 공개했다.
이 제품군에는 트레이닝용 프로세서인 NNP-T와 추론용 프로세서인 NNP-I가 포함된다. 또한, 이날 인텔 기술진들은 하이브리드 칩 패키징 기술, 인텔 옵테인 DC (Intel Optane DC) 퍼시스턴트 메모리 및 광학 입출력용 칩렛 기술에 대해 발표했다.
생성되는 대량의 데이터 처리하려면
인텔 부사장 겸 AI 제품 그룹의 총괄 매니저인 나빈 라오(Naveen Rao)는 “미래의 '모든 곳에 인공지능'을 구현하기 위해서는 생성되는 대량의 데이터를 기업에서 효율적으로 처리하고 활용할 수 있도록 지원해야 한다”며 “데이터 센터와 클라우드는 복잡한 인공지능 애플리케이션을 위해 성능이 뛰어나고 확장 가능한 범용 컴퓨팅 및 전문화된 가속이 필요하다. 모든 곳에 인공지능이라는 미래의 비전에는 하드웨어에서 소프트웨어, 애플리케이션에 이르는 종합적인 접근 방식이 필요하다”고 전했다.
데이터를 정보로 바꾸고 또 지식으로 전환시키기 위해서는 새롭고 점점 더 복잡한 활용 사례 및 인공지능 기술을 발전시키고 지원할 수 있는 하드웨어 아키텍처와 보완적인 패키징, 메모리, 스토리지 및 인터커넥트 기술이 필요하다. 인텔 너바나 NNP와 같은 전용 가속기는 고객에게 올바른 인텔리전스를 적절한 시기에 제공하기 위해 처음부터 인공지능에 중점을 두고 구축되었다.
.jpg)
인텔 너바나 NNP-T(Neural Network Processor)는 딥러닝 트레이닝의 경계를 확장한다. 실세계의 두 가지 주요 고려 사항을 우선시 하기 위함이다. 첫 번째는 네트워크를 가능한 빨리 트레이닝시키고, 두 번째는 주어진 전력 범위 내에서 수행하는 것이다. 이 딥러닝 트레이닝 프로세서는 유연성을 염두에 두고 구축되어 컴퓨팅, 통신 및 메모리 간의 균형을 유지한다. 미래의 딥러닝 요구를 충족하기 위해 인텔 너바나 NNP-T는 유연성과 프로그래머블 기능으로 구축되어 기존 워크로드와 추후에 나타날 새로운 워크로드 모두에서 다양한 워크로드를 가속화 하도록 설계되었다.
인텔 너바나 NNP-I는 추론을 위해 특수 제작되어 대규모로 딥러닝 구축을 가속화하도록 설계되었으며, 모든 주요 데이터 센터 워크로드에 걸쳐 와트 당 업계 최고의 성능을 제공하기 위해 아이스 레이크(Ice Lake) 코어를 이용한 인텔의 10나노 공정 기술을 활용한다.
또한 인텔 너바나 NNP-I는 성능이나 전력 효율성 저하 없이 높은 수준의 프로그래머블 기능을 제공한다. 인공지능이 모든 워크로드에서 보편화됨에 따라 쉬운 프로그래밍, 짧은 지연 시간, 빠른 코드 포팅 및 모든 주요 딥러닝 프레임워크 지원을 포함하는 전용 추론 가속기를 사용하여 기업은 데이터의 모든 잠재력을 실행 가능한 통찰력으로 활용할 수 있다. 인텔 너바나 NNP-I (코드명 스프링 힐(Spring Hill))의 설계 및 아키텍처에 대한 추가 기술 정보는 발표자료를 통해 확인할 수 있다.
<저작권자(c)스마트앤컴퍼니. 무단전재-재배포금지>
본 기사의 전문은 PDF문서로 제공합니다.
(로그인필요)
다운로드한 PDF문서를 웹사이트, 카페, 블로그등을 통해 재배포하는 것을 금합니다. (비상업적 용도 포함)
다운로드한 PDF문서를 웹사이트, 카페, 블로그등을 통해 재배포하는 것을 금합니다. (비상업적 용도 포함)
100자평 쓰기








