더 빠른 머신러닝을 부르다 ‘인텔 나이츠랜딩’

컴퓨팅입력 :2016/07/13 15:23

올해 상반기 이세돌과 인공지능 알파고의 바둑 대결은 전세계 산업계에 강한 충격을 안겼다. 이 과정에 머신러닝과 인공지능 기술을 위한 요소 기술들이 빠르게 진화하고 있다. 인공지능 알고리즘과 시스템 소프트웨어, 애플리케이션 등에서 혁혁한 진보가 일어나고 있는데, 프로세서의 강자 인텔도 머신러닝의 진보를 앞당길 새로운 프로세서를 선보였다.

인텔코리아(대표 권명숙)는 13일 서울 양재동 엘타워에서 고객 대상 세미나와 기자간담회를 열고 차세대 인텔 제온파이 프로세서 ‘나이츠랜딩’를 소개했다.

휴고 샬레 인텔 HPC그룹 마케팅책임자는 “머신러닝 기반의 자율주행을 가능하게 하는 건 하나의 프로세서, 복수의 프로세서, 새 프로그래밍 모델로만 가능한 게 아니다”라며 “자율주행을 위한 프로세서, 메모리, 패브릭, 스토리지 등으로 클라우드에 시스템을 만들고, IoT, 5G 그 이상의 네트워크까지 전체 인프라가 구축돼야 한다”고 밝혔다.

인텔 제온파이 프로세서(나이츠랜딩). OPA 패브릭을 연결한 모습

코프로세서였던 제온파이는 나이츠랜딩에 이르러 부팅 가능한 프로세서로 승격됐다. 기존 제온 프로세서와 함께 사용하면 대규모 병렬 연산을 전보다 더 작은 규모의 인프라로 수행할 수 있다.

새로운 제온파이 제품군은 32노드 인프라 상에서 GPU보다 최대 1.38배 향상된 확장성을 제공하며, 128 노드 인프라 상에서 단일 노드 대비 최대 50배 빠른 속도로 머신러닝 트레닝을 수행한다.

머신러닝 스코어링(scoring) 모델에 최적화된 인텔 제온 프로세서 E5 v4 제품군을 제온파이 프로세서와 함께 사용하면, 기존 대비 30배의 성능향상 효과를 거둘 수 있다. KNN 알고리즘에서 보면, 128노드까지 확장하면서 정비례로 성능을 증가시킬 수 있다.

인텔은 머신러닝과 고성능컴퓨팅(HPC)의 성능 및 확장성 향상을 위해 단일 칩셋 개선뿐 아니라 전체 시스템 아키텍처와 프레임워크 측면으로도 접근하고 있다.

제온파이 나이츠랜딩의 경우 프로세서에 16GB 고대역폭 메모리를 통합시켰다. 6개채널의 DDR4 메모리가 프로세서와 직접 통신하므로 더 빠르게 연산을 처리한다. 병렬 연산의 병목지점인 프로세서와 메모리 간 통신 부분을 통합한 것이다. 제온파이 프로세서는 이를 통해 최대 400GB의 메모리를 갖게 된다. 사용자의 니즈에 따라 이 메모리 전체를 L3 캐시로 쓸 수도 있고, L3 캐시와 메모리로 나눠 하이브리드로 쓸 수도 있다.

클러스터링을 위한 인터커넥트는 새롭게 개발한 ‘옴니패스아키텍처(OPA)’를 사용한다. OPA는 격자형(패브릭)으로 엮이는 수많은 시스템을 인피니밴드보다 더 빠르면서도 더 저렴한 비용으로 연결하게 해준다. 인텔에 따르면, 인텔 OPA 48포트 스위치는 동일 예산 시 인피니밴드 EDR보다 26% 더 많은 서버를 사용하게 한다.

휴고 샬레는 “인텔 OPA는 인피니밴드 EDR 대비 패브릭당 성능비용에서 58% 저렴하다”며 “동일 투자규모로 인터커넥트보다 컴퓨팅 자체에 더 많이 투자할 수 있게 되므로, 작년 11월 출시 후 현재까지 8만노드가 판매될 정도로 호응이 뜨겁다”고 말했다.

나이츠랜딩은 OPA를 사용할 수 있는 통합패브릭을 처음으로 채택했다. OPA패브릭을 사용한 나이츠랜딩은 생명공학 앱에서 GPU 대비 5배, 재무금융 앱에서 GPU 대비 2.7배의 성능을 기록했다.

이와 함께 인텔은 소규모 클러스터부터 대규모 HPC를 아우르는 레퍼런스 아키텍처 ‘인텔 스케일러블 시스템 프레임워크(SFF)’를 제공하고 있다. 인텔 SSF는 데이터집약적 애플리케이션, 머신러닝, 시각화 등에 최적화된 권장 하드웨어 및 소프트웨어 구성 기준을 제공한다. 하드웨어 및 소프트웨어 요소, 설치 방법 및 시스템 사양 등 구체적인 HPC 시스템 자격 요건을 명시한 레퍼런스 디자인 2가지를 갖췄다. 시스템개발업체들이 설계 및 검증 단계를 단순화할 수 있게 해주며, 사용자에게는 구매 가이드로 제공한다는 설명이다.

인텔은 머신러닝의 저변 확대를 위해 공개 코드 개발자 커뮤니티와 협력도 강화할 예정이다. 카페(Caffe), 텐서플로우(Tensorflow) 등 딥러닝 프레임워크를 최적화해 인텔 아키텍처 기반에서 관련 소프트웨어가 최적 성능을 낼 수 있게 지원할 계획이다. 한편으로 딥러닝 심층신경망(DNN)을 위한 공개 MKL(Math Kernel Libraries)를 최적화해 발표할 예정이다.

나이츠랜딩 제온파이는 4종으로 판매된다. 노드당 최고성능을 내는 7290, 와트당 최고성능을 내는 7250, 코어당 최고 수준의 메모리 대역폭을 내는 7230, 합리적 가격대비성능을 제공하는 7210 등이다.

휴고 샬레 인텔 HPC그룹 마케팅책임자

휴고 샬레는 “제온파이는 가장 높은 수준의 ROI와 가장 낮은 TCO를 가능하게 한다”며 “데이터센터에서 고유 아키텍처 상에 하나의 워크로드를 돌릴 때 별도로 남는 리소스를 없애준다”고 강조했다.

나이츠랜딩은 출시 이전에 이미 3만 유닛을 사용자에게 출하한 상태였다. 인텔은 올해말까지 10만 유닛을 출하할 것으로 예상하고 있다.

그는 “제온과 제온파이는 상호보완적 아키텍처로 작동하며, 제온 기반 HPC 앱을 제온파이서 돌릴 수 있는 바이너리 호환성을 제공한다”고 강조했다.

인텔은 머신러닝의 저변 확대를 위해 공개 코드 개발자 커뮤니티와 협력도 강화할 예정이다. 카페(Caffe), 텐서플로우(Tensorflow) 등 딥러닝 프레임워크를 최적화해 인텔 아키텍처 기반에서 관련 소프트웨어가 최적 성능을 낼 수 있게 지원할 계획이다. 한편으로 딥러닝 심층신경망(DNN)을 위한 공개 MKL(Math Kernel Libraries)를 최적화해 발표할 예정이다.

인텔과 한국과학기술정보연구원(KISTI)은 지난 6월 상호양해각서(MOU)를 체결하고, 인텔 제온 파이 및 인텔 OPA 기반 국산 슈퍼 컴퓨터 시스템을 개발할 수 있도록 메인보드 디자인, 소프트웨어, 클러스터링, 패브릭 부문에서 긴밀히 협조하기로 했다.

KISTI는 아태 지역에서는 최초로 2년 연속 '인텔 초고성능 컴퓨팅 활용기술 연구사업(IPCC, 인텔병렬컴퓨팅센터)' 지원 대상에 선정됐다. IPCC는 HPC 기반 확대를 위해 인텔이 2013년부터 진행해온 프로그램으로, 전세계 수준 높은 HPC 활용기술 연구 기관을 선정해 최대 2년까지 연구비를 지원한다.

관련기사

이와 관련 KISTI 류훈 박사가 기자간담회에 직접 참석해 IPCC 프로젝트 진행현황을 소개했다. 류박사는 제온 파이 프로세서를 활용해 서브 나노미터급 차세대 반도체 소자 설계에 있어 주요 수치 연산 부문에서 향상된 성과를 거둘 수 있었다고 설명했다.

HPC 및 머신러닝에 대한 전문가 교육도 확대한다. 인텔은 2015년부터 파트너사인 대한컨설팅 과 함께 CMEP(Code Modernization Enablement Program)을 진행해 왔다. 이 프로그램은 인텔 제온 파이 및 제온 프로세서 기반 HPC 시스템 활용을 최적화할 수 있도록 다중 코어에 맞춰 애플리케이션을 병렬화 및 벡터화할 수 있는 교육 과정을 제공한다. 지금까지 총 600명이 프로그램에 참여했으며, 올해 하반기까지 추가로 400명의 전문 인력에 대한 교육을 완료할 예정이다.