페북, 머신러닝 하드웨어도 오픈소스로 공개

컴퓨팅입력 :2015/12/11 09:22

페이스북이 엔비디아와 손잡고 머신러닝 기술을 구동하기 위한 하드웨어 시스템 설계를 오픈소스로 공개할 예정이다.

미국 지디넷은 10일(현지시각) 페이스북이 신경망(neural networks) 트레이닝을 위해 설계한 차세대 하드웨어, 코드명 '빅서(Big Sur)'를 선보였다고 보도했다.

빅서는 대규모 인공지능(AI) 컴퓨팅을 위해 최신 '오픈랙' 호환 하드웨어로 설계됐다는 게 페이스북의 설명이다. 오픈랙은 페이스북의 대규모 데이터센터 인프라 최적화를 위해 오픈소스 방식으로 하드웨어 및 데이터센터 기술을 표준화하는 '오픈컴퓨트프로젝트(OCP)'의 랙 규격이다.

페이스북 엔지니어 케빈 리와 서칸 피안티노는 공식 개발자 블로그를 통해 빅서 하드웨어를 완전히 새로 개발했으며, OCP기반 데이터센터에서 운영되는 서버인만큼 기성 솔루션보다 다양한 기능을 갖췄다고 강조했다. 이런 기술과 설계 결과물을 향후 OCP에 공개하겠다고 예고했다.

블로그 설명에 따르면 빅서 기술은 "OCP표준 데이터센터처럼 외기냉각(free-air cooled) 환경에서도 운영될 수 있는 온도와 전력 효율성을 갖는 새로운 서버에 최적화"됐다. 페이스북이 먼저 도입했던 기성 고성능컴퓨팅(HPC) 시스템처럼 냉각 등에 특화된 기술을 안 써도 된다.

페이스북이 머신러닝 및 인공지능 기술 구동을 위해 만든 하드웨어 시스템 빅서. 엔비디아 GPU 테슬라M40 8대를 붙여 쓰는 일종의 HPC서버인데 높은 전력 효율성을 갖췄고 간편한 정비가 가능하도록 설계됐다. OCP로 공개될 예정이다.

각 서버는 잘 쓰이지 않는 구성요소를 제거한 형태다. 하드디스크드라이브나 DIMM처럼 상대적으로 잘 망가지는 부품들은 몇초 이내에 교체 가능하다. 마더보드도 몇 분만에 빼낼 수 있다. 전체적으로 별다른 도구 없이도 유지관리가 가능하다. 나사로 고정된 CPU 히트싱크만 예외다.

미국 지디넷에 따르면 엔비디아의 고성능GPU인 테슬라M40 액셀러레이터는 지난달 출시됐는데, 페이스북은 이걸 최초로 운영시스템에 적용한 회사다. 테슬라M40은 '딥뉴럴네트워크' 시장을 겨냥해 나왔다. 빅서 플랫폼과 오픈랙 호환 하드웨어를 위한 핵심 요소로 소개됐다.

관련기사

빅서의 서버 시스템은 테슬라M40 GPU 8개를 PCI익스프레스 인터페이스로 연결해 그 연산 성능을 합쳐 쓴다. GPU당 최대 소비전력은 300와트다. 페이스북은 이런 구조와 엔비디아 '테슬라 액셀러레이티드 컴퓨팅 플랫폼'을 통해, 이전 세대 시스템의 2배 성능을 얻었다고 밝혔다.

페이스북 측은 빅서 기술을 AI연구자들에게 더 쉽게 만들어 공유하고 싶다고 밝혔다. 모든 하드웨어 시스템을 공개해 다른 이들이 자신들과 함께 그걸 개선할 수 있기를 기대한다는 입장이다. 향후 디자인 개선을 도와 혁신적인 복잡한 AI시스템을 만들 바탕이 될 거란 전망이다.