NHN 클라우드 부문 김명신 최고기술책임자(CTO)

[디지털데일리 백지영기자] NHN이 영국 인공지능(AI) 반도체 스타트업 그래프코어와 협력해 AI에 최적화된 클라우드 서비스를 제공한다.

AI 워크로드를 위한 지능처리장치(IPU)를 공급하는 그래프코어는 삼성전자, BMW, 구글 딥마인드 공동 창업자 데미스 하사비스 등으로부터 투자를 받은 기업으로 잘 알려져 있다. 이미 2019년부터 마이크로소프트(MS)의 클라우드 서비스 ‘애저’에 탑재되는 등 AI 인프라 영역에서 파급력을 넓히고 있다. 지난해 1월에는 한국 지사를 설립하고 강민우 지사장을 선임한 바 있다.

NHN은 오픈스택 기반으로 서비스 중인 자사 클라우드 서비스에 그래프코어의 하드웨어가 잘 구동될 수 있도록 기술을 공동 개발하는 것은 물론 고성능컴퓨팅(HPC)과 AI 인프라 환경 개선, AI 개발 생태계 확장 등을 추진한다. 이를 통해 기술한계와 비용문제 등으로 AI 활용에  어려움을 겪고 있는 기업들에게 국내 최고의 AI 클라우드 서비스를 제공하겠다는 각오다.

25일 NHN 유튜브에서 개최된 그래프코어 기술 협력 웨비나에서 NHN 클라우드 부문 김명신 최고기술책임자(CTO)는 “AI가 전방위적으로 확산되고 있는 상황에서 클라우드는 AI를 현실화하는 기폭제 역할을 하고 있다”며 “하지만 AI가 발전을 거듭할수록 기존의 중앙처리장치(GPU), 그래픽처리장치(GPU)로는 한계가 있다”고 지적했다.
그는 “그동안 전 세계 유수기업의 연구 성과와 제품을 살펴본 결과, AI를 위한 전용 반도체를 설계하고 이를 제품화한 그래프코어는 현재 직면한 AI의 한계를 뛰어넘는 기술을 갖고 있다고 판단했다”며 “그래프코어의 최신 IPU은 초당 45TB 메모리 대역을 갖고 있어 고속 데이터 전송이 가능하고 7000개 이상 독립 쓰레드를 수행해 높은 병렬성을 제공하며 개발자들이 손쉽게 활용할 수 있도록 포플러 SDK를 제공하는 등 기술혁신을 이뤄내고 있다”고 그래프코어와의 협력 의의를 설명했다.

그에 따르면, 그래프코어 IPU의 비용당 계산 성능을 비교하면 경쟁사(엔비디아) 대비 약 8배 빠른 연산 수행과 7배 이상 큰 메모리 지원, 2배 이상 컴퓨팅 파워를 제공한다. 이를 통해 고객에게 강력한 AI 인프라를 제공할 수 있을 것이란 판단이다. 

김 CTO는 “어려운 기술을 손쉽게 사용할 수 있도록 만드는 것은 NHN의 장기”라며 “기업들에게 국내 최고, 최대의 AI 클라우드 서비스를 제공하겠다”고 강조했다.

그래프코어 측도 자사의 IPU 경쟁력을 앞세우며 국내 AI 인프라 시장을 적극 공략하겠다고 밝혔다. 앞서 그래프코어의 IPU는 KT 클라우드 인프라에도 도입된 바 있다. 

현재 그래프코어는 594억대 트랜지스터로 이뤄진 1472 IPU 칩 코어로 이뤄져 250테라플롭스 AI연산이 가능한 ▲콜로서스 Mk2 IPU : GC200을 비롯해 페타플롭 AI 연산이 가능한 1U 데이터센터 블레이드인 ▲IPU-M2000, IPU-M2000 안에 64개의 GC200가 포함된 ▲IPU POD 등을 제공하고 있다.

이와 함께 파이토치, 텐서플로우 및 기타 AI 프렘워크와 호환 가능한 통합 머신 인텔리전스 소프트웨어 스택인 ‘포플라’를 제공해 IPU 프로그래밍 단순화도 지원한다.  

크리스 툰슬리 그래프코어 프로덕트 마케팅 부문장은 “AI 모델 크기와 복잡성이 크게 증가하면서 완전히 다른 속성을 나타내는 새로은 컴퓨팅 워크로드가 필요하다”며 “IPU는 GPU와 같은 전통적인 아키텍처에선 다루지 못했던 새로운 유형의 머신러닝 및 기타 많은 컴퓨팅 워크로드에 엄청난 이점을 줄 것”이라고 말했다.

크리스 툰슬리 그래프코어 프로덕트 마케팅 부문장


그에 따르면, IPU가 CPU나 GPU와 가장 차별화되는 지점은 병렬화 수준과 메모리 액세스의 최대화다. 우선 병렬화 측면에서 CPU는 스칼라 처리 및 범용 프로그램 실행을 위해 설계돼 보통 코어가 많지 않고, GPU는 그래픽을 효율적으로 처리하기 위해 가능한 한 많은 데이터를 인접한 벡터에 넣어야 하는 SIMD/SIMT 아키텍처를 사용해 설계됐다. 

하지만 IPU는 대용량 MIMD(다중 명령 다중 데이터) 아키텍처로 설계돼 효율적인 AI 모델에 대한 증가 추세를 해결하는데 필요한 세분화됐다는 설명이다. 

메모리 액세스의 경우도 결국 문제는 AI 모델과 데이터 위치에 가장 크게 상관이 있다. 메모리 집약적인 활동으로 성능은 사용 가능한 메모리 대역폭에 크게 영향을 받는다. CPU의 경우 메모리는 칩과는 동떨어져 그 대역폭의 제한이 명백하다. 

또, GPU는 패키지 안에 있는 고대역폭 메모리 HBM2를 사용하면 메모리 대역폭이 약 5배 향상되지만 하나의 메모리에서 모든 데이터를 처리해야 하기 때문에 비효율적이다.

그는 “IPU는 CPU나 GPU와는 달리 AI 모델과 데이터가 컴퓨팅 바로 옆에 밀접하게 결합된 SRAM에 보관되며, 이를 통해 성능으로 직접 변화되는 메모리 대역폭이 크게 향상된다”고 설명했다.

현재 그래프코어의 IPU는 금융, 거래예측, 의료, 연구 등 다양한 분야에서 활용되고 있다. 운전자가 차량의 사고 부위사진을 올리면 수리 비용을 예측하는 서비스를 제공하는 ‘트랙터블’의 경우, IPU를 활용해 GPU를 사용할 때보다 5배 이상의 속도 향상이 가능했다. 즉, 기존에 5일 걸렸던 학습을 하루만에 끝낼 수 있었다. 

툰슬리 부문장은 “그래프코어 기술은 혁신가들에게 새로운 길을 열어준다”며 “향후 IPU와 같은 AI컴퓨팅은 컴퓨팅, 스토리지, 네트워크와 함께 데이터센터의 4번째 기둥이 될 것”이라고 강조했다.


네이버 뉴스스탠드에서 디지털데일리 뉴스를 만나보세요.
뉴스스탠드


  • IT언론의 새로운 대안-디지털데일리
    Copyright ⓒ 디지털데일리. 무단전재 및 재배포 금지
 
  • 동영상
  • 포토뉴스
삼성전자, 美 고가 프로젝터 점유율 1위 등극 삼성전자, 美 고가 프로젝터 점유율 1위 등극
  • 삼성전자, 美 고가 프로젝터 점유율 1위 등극
  • SK온, ”EV배터리 상태 직접 확인하세요“
  • LG화학, ‘제6회 대학생 광고 공모전’ 수상…
  • SK이노베이션, ‘힐링+스페이스’ 개최