인텔, 인공지능 가속기 ‘너바나’ 공개

컴퓨팅입력 :2019/08/21 11:15

인텔은 21일 미국 캘리포니아 팔로알토에서 열린 반도체 컨퍼런스인 핫칩스 2019(Hot Chips 2019)에서 출시를 앞둔 고성능 인공지능(AI) 가속기 ‘인텔 너바나(IntelNervana)’ 신경망 프로세서에 대한 세부 정보를공개했다.

해당 제품군에는 트레이닝용 프로세서인 NNP-T와 추론용 프로세서인 NNP-I가 포함된다.

또한 이날 인텔 기술진은 하이브리드 칩 패키징 기술, 인텔 옵테인 DC (IntelOptane DC) 퍼시스턴트 메모리 및 광학 입출력용 칩렛 기술에 대해 발표했다.

데이터를 정보로 바꾸고 또 지식으로 전환시키기 위해서는 새롭고 점점 더 복잡한 활용 사례 및 AI 기술을 발전시키고 지원할 수 있는 하드웨어 아키텍처와 보완적인 패키징, 메모리, 스토리지 및 인터커넥트 기술이 필요하다. 인텔 너바나 NNP와 같은 전용 가속기는 고객에게 올바른 인텔리전스를 적절한 시기에 제공하기 위해 인공지능에 중점을 두고 구축되었다.

인텔.

■ 인텔 너바나 NNP-I : 주요 데이터 센터 워크로드를 위한 고성능 딥러닝 추론

인텔 너바나 NNP-I는 추론을 위해 특수 제작되어 대규모로 딥러닝 구축을 가속화하도록 설계되었으며, 모든 주요 데이터 센터 워크로드에 걸쳐 와트 당 업계 최고의 성능을 제공하기 위해 아이스 레이크(Ice Lake) 코어를 이용한 인텔의 10나노 공정 기술을 활용한다.

또한 인텔 너바나 NNP-I는 성능이나 전력 효율성 저하 없이 높은 수준의 프로그래머블 기능을 제공한다. 인공지능이 모든 워크로드에서 보편화됨에 따라 쉬운 프로그래밍, 짧은 지연 시간, 빠른 코드 포팅 및 모든 주요 딥러닝 프레임워크 지원을 포함하는 전용 추론 가속기를 사용하여 기업은 데이터의 모든 잠재력을 실행 가능한 통찰력으로 활용할 수 있다.

인텔 너바나 NNP-I (코드명 스프링 힐의 설계 및 아키텍처에 대한 추가 기술 정보는 발표자료를 통해 확인할 수 있다.

■ 레이크필드(Lakefield): 3 차원 패키지의 하이브리드 코어

레이크필드는 새로운 차원의 모바일 디바이스를 위한 3D 스태킹 및 IA 하이브리드 컴퓨팅 아키텍처를 갖춘 업계 최초의 제품이다.

레이크필드는 인텔의 최신 10나노 공정 및 포베로스(Foveros) 첨단 패키징 기술을 활용하여 이전 세대의 기술에 비해 대기 전력, 코어 영역 및 패키지 높이를 극적으로 감소시킨다.

동급 최강의 컴퓨팅 성능과 초저열 설계 성능을 통해 새로운 얇은 폼 팩터 디바이스, 투인원 및 듀얼 디스플레이 디바이스는 아주 낮은 대기 전력에서 상시 켜진 상태와 연결된 상태로 작동할 수 있다.

■ 테라피: 높은 대역폭, 저전력 통신을 위한 패키지 내 광학 I/O 칩렛

인텔과 아야 랩(Ayar Lab)은 고성능 시스템-온-칩(SOC)과 일체형 패키지 내 광학(MIPO)의 통합을 시연했다.

아야 랩테라피*(Ayar Labs TeraPHY) 광학 I/O 칩렛은 인텔 임베디드 멀티-다이 인터커넥트 브릿지 기술(EMIB)을 사용하여 인텔 스트라틱스 10 FPGA가 통합 패키징 되었으며, 높은 대역폭, 저전력 데이터 통신을 제공해 최대 2km 거리까지 낮은 지연 속도를 지원한다.

이러한 협력은 데이터 이동의 전통적인 성능, 전력 및 비용 병목 현상을 제거함으로써 무어의 법칙(Moore’s Law)의 다음 단계를 위한 컴퓨팅 시스템 설계에 대한 새로운 접근 방식을 제공한다. 광학 입출력을 사용한 프로세서 생성에 대한 추가 기술 세부 및 설계 사항에 대해서는 발표자료를 통해 확인할 수 있다.

■ 인텔 옵테인 DC 퍼시스턴트 메모리: 아키텍쳐 및 성능

인텔 옵테인 DC 퍼시스턴트 메모리(Intel Optane DC persistent memory) 새로운 개념의 퍼시스턴트 메모리 티어의 첫 제품이다.

인텔3D 크로스포인트(Intel3D XPoint) 기술 및 메모리 모듈 폼 팩터 기반으로 메모리와 가까운 속도, 나노 초 단위의 짧은 지연시간, 그리고 대용량을 제공하며 스토리지의 지속성도 지원한다.

관련기사

두 가지 작동 모드(메모리 모드, 앱 다이렉트 모드)를 가지고 있으며 해당 메모리와 같은 새로운 티어가 완전히 재설계된 데이터 공급 서브시스템을 지원해 새로운 워크로드를 더욱 빠르게 지원한다.

인텔 부사장 겸 AI 제품 그룹의 총괄 매니저인 나빈 라오(Naveen Rao)는 “미래의 '모든 곳에 AI’를 구현하기 위해서는 생성되는 대량의 데이터를 기업에서 효율적으로 처리하고 활용할 수 있도록 지원해야 한다”며 “데이터 센터와 클라우드는 복잡한 인공지능 애플리케이션을 위해 성능이 뛰어나고 확장 가능한 범용 컴퓨팅 및 전문화된 가속이 필요하다. 모든 곳에 인공지능이라는 미래의 비전에는 하드웨어에서 소프트웨어, 애플리케이션에 이르는 종합적인 접근 방식이 필요하다”고 전했다.