AI 가속기 시스템 성능 및 에너지 효율↑
삼성전자가 인공지능(AI) 분야에서 새로운 메모리 솔루션을 제시했다. 메모리 업황이 지속 악화하는 상황에서 차세대 기술로 미래 시장을 선도한다는 전략이다.
삼성전자는 초거대 AI 모델을 지원하기 위한 솔루션으로 PIM(프로세싱 인 메모리)ㆍPNM(프로세싱 니어 메모리) 기술을 선보였으며 이 기술을 구현할 소프트웨어에 대한 표준화 작업도 마쳤다고 20일 밝혔다.
초거대 AI는 인간의 뇌처럼 여러 상황에 대해 스스로 학습해 사고하고 판단할 수 있는 한 단계 진화한 AI다. 초거대 AI를 구현하기 위해서는 훨씬 더 대용량의 데이터에 대한 학습과 연산이 필요하다.
이 때문에 초거대 AI에서 기존 방식으로는 CPU(중앙처리장치)에 부하가 걸리거나 데이터 처리 속도가 급격히 떨어질 수 있는데 이를 PIM와 PNM이 해결할 수 있다는 설명이다.
PIM은 프로세서가 수행하는 데이터 연산 기능을 메모리 내부에 구현한 기술이다. PIM을 활용하면 CPU(중앙처리장치)와 메모리 간 데이터 이동이 줄어들어 AI 가속기 시스템의 성능과 에너지 효율을 높일 수 있다.
삼성전자는 이를 활용해 HBM-PIM과 GPU(그래픽처리장치)를 함께 채용한 AI용 가속기를 구현했다. 특히 AMD의 GPU ‘MI-100’ 가속기 카드에 HBM-PIM 메모리를 탑재했다. 기존 GPU 가속기 대비 평균 성능은 2배 증가했으며 에너지 소모는 50% 감소했다.
이와 함께 PIM처럼 CPU와 메모리 간 데이터 이동을 줄여주는 PNM 기술도 적용했다. PNM은 연산 기능을 메모리 옆에 위치시켜 CPU와 메모리 간 발생하는 병목현상을 줄이고 시스템 성능을 개선할 수 있다.
특히 삼성전자가 최근 개발한 CXL(컴퓨트 익스프레스 링크) 기반의 PNM 기술은 고용량 AI 모델의 처리에 적합한 솔루션으로, 높은 메모리 대역폭을 요구하는 추천 시스템이나 인-메모리 데이터베이스 등의 응용에서 약 2배 이상 성능이 향상됐다고 삼성전자 측은 밝혔다.
삼성전자는 밀집데이터(자율주행ㆍ음성인식) 기반 AI 모델에는 PIM 기술을, 희소데이터(페이스북 친구 추천과 같은 사용자 기반 추천 알고리즘) 기반 모델에는 PNM 기술을 적용해 고객의 다양한 요구에 대응할 방침이다.
박철민 삼성전자 메모리사업부 신사업기획팀장 상무는 “HBM-PIM 클러스터 기술은 업계 최초의 거대 규모 인공지능 분야 맞춤형 메모리 솔루션”이라며 “통합 소프트웨어 표준화 과정을 거쳐 CXL-PNM 솔루션과 접목해 에너지 절감 및 탄소 배출 저감 효과를 극대화함으로써 친환경 경영에 기여할 것”이라고 밝혔다.