[삼성 AI 로드맵]똑똑한 메모리 등장, 투자 공세 유지④HBM 등 생산능력 증대…PIM, 병목 현상 축소 기대
김도현 기자공개 2023-12-08 11:05:18
[편집자주]
오픈AI의 챗GPT가 출시 1주년을 맞았다. 2개월 만에 사용자 1억명을 확보하며 단숨에 인공지능(AI) 산업의 폭발적 성장을 이끌 '게임체인저'로 주목 받았다. 다만 삼성은 챗GPT를 포함한 생성형 AI 사내 사용을 금지했고 자체 솔루션 확보에 나섰다. 주요 사업부들은 AI를 핵심 키워드로 꼽고 전략적 움직임을 본격화한 상태다. 더벨에서는 삼성의 AI 육성과 전략을 조명해본다.
이 기사는 2023년 12월 06일 07시58분 thebell에 표출된 기사입니다
"초거대 인공지능(AI)이 메모리의 새로운 응용처로 급부상하고 있다. 특히 PC, 스마트폰과 같이 사용자 기기에 AI를 구현할 수 있는 온디바이스(On-device) AI가 확산되면서 수요는 더욱 확대될 것이다."이정배 삼성전자 메모리사업부장(사장)의 말처럼 메모리 시장에서 AI는 핵심 키워드가 됐다. 특히 초거대 AI는 기존 AI보다 수백배 이상 데이터 학습량이 필요해 이를 감당할 수 있는 고성능·고용량·저전력 메모리가 요구되고 있다. 그러면서도 총소유비용(TCO)까지 낮출 수 있어야 한다.
삼성전자는 고대역폭 메모리(HBM), 프로세스 인 메모리(PIM), 저지연성 와이드(LLW) D램 등 다양한 라인업을 통해 대응에 나선 상태다.

◇한발 늦은 HBM, 추격 본격화…내년 말 역전 목표
올해 메모리 업계에서 최대 화두는 HBM이었다. 이 제품은 D램 여러 개를 실리콘관통전극(TSV) 공정으로 쌓은 고부가 메모리다. AI 서버에서 쓰이는 그래픽처리장치(GPU) 성능이 대폭 올라가면서 일반 D램으로 소화가 어려워지자 HBM이 주목을 받은 것이다. 대역폭은 전송속도와 비례해서 높을수록 데이터 처리가 빨라진다.
HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E) 순으로 개발되고 있다. 삼성전자는 3세대까지는 다소 앞섰으나, 추가 투자에 소극적인 경향을 나타내면서 4세대부터 SK하이닉스에 뒤처지게 됐다. 엔비디아발 첨단 GPU 공급으로 HBM 시장이 4세대에 이르러 터지면서 SK하이닉스가 먼저 D램 부문 흑자전환하는 등 관련 수혜를 사실상 독점 중이다.
5세대 역시 SK하이닉스가 내년 2분기 양산 예정으로 삼성전자(내년 3분기)보다 먼저다. 이에 삼성전자는 판세를 뒤집기 위해 HBM 물량 확대를 예고했다. 2024년 생산능력(캐파)을 2023년 대비 2.5배 늘리기 위해 대규모 시설투자를 단행 중이다. 올해 삼성전자는 불황 속에서도 반도체 분야에 50조원 이상을 투입할 전망인데, 내년도 이 수준을 유지할 것으로 관측된다.
지난 2분기 기준으로 HBM 캐파는 삼성전자2만5000개, SK하이닉스 3만5000개로 추정된다. 업계에서는 양사 투자 속도와 규모에서 차이가 나는 만큼 내년 4분기에는 각각 15만~17만개, 12만~14만개 수준으로 삼성전자가 역전할 것으로 보고 있다.
이 사장은 "HBM은 AI 시대에 고객에게 새로운 가치를 제공할 수 있는 핵심 제품 중 하나다. 2016년 고성능컴퓨팅(HPC)향 HBM2를 업계 최초 상용화하면서 해당 시장을 개척했고, 이는 오늘날 AI향 HBM 시장 초석이 됐다"면서 "HBM3 양산 중, HBM3E 개발 중으로 앞으로도 다년간의 양산 경험을 통해 검증된 기술력과 다양한 고객과의 파트너십을 적극 활용할 것"이라고 강조했다.
◇연산 가능한 'PIM', 온디바이스 AI 특화 'LLW D램'
PIM, LLW D램 등도 향후 AI 산업에서 비중 있는 역할을 할 것으로 관측된다. PIM은 D램에 연산이 가능한 프로세서 기능을 더한 반도체다. 통상 메모리와 프로세서가 완전히 분리돼 두 칩간 데이터가 오가는 과정에서 병목 현상이 잦았다. AI 분야에서의 데이터 급증으로 과부하가 더욱 커졌는데, 이를 어느 정도 해소할 수 있도록 PIM의 개념이 등장했다.
삼성전자는 더 나아가 HBM과 PIM를 결합하기로 했다. HBM-PIM이 주인공이다. PIM 기술을 통해 프로세서를 HBM에 바로 구현해 일부 데이터 연산 작업을 자체 처리할 수 있게 했다. 결과적으로 데이터 이동을 줄이고 AI 에너지 및 데이터 효율성을 향상시킨 것이다.

앞서 삼성전자는 AMD의 GPU 'MI-100' 가속기 카드에 HBM-PIM을 탑재한 바 있다. 리사 수 AMD 최고경영자(CEO)는 "PIM을 활용하면 기존 메모리로 정보 처리할 때보다 85% 이상 전력을 절감할 수 있다"고 밝혔다.
아직 PIM 고도화가 이뤄지지 않아서, 본격적으로 도입되기까지는 시간이 필요한 상태다. 삼성전자는 HBM과 PIM에 대한 투자를 동시다발적으로 진행하면서 시너지를 내겠다는 계획이다.
LLW D램은 데이터가 드나드는 통로인 입출구(I/O)를 늘려 로우파워(LP)더블데이터레이트(DDR) 대비 대역폭을 높인 특수 D램이다. 이러한 특성으로 기기 자체에서 AI를 구현하는 '온디바이스 AI'에 적합하다는 평가를 받는다.
삼성전자의 경우 LLW D램을 확장현실(XR) 기기 등에 적용할 방침이다. 회사는 2020년 전후로 온디바이스 AI 경량화 알고리즘을 개발하는 등 관련 경쟁력을 향상하고 있다.
◇무궁무진한 삼성 메모리 확장
이외에도 어드밴스드 솔리드스테이트드라이브(SSD), 컴퓨트 익스프레스 링크(CXL) 인터페이스 등도 AI 시대 대안을 꼽힌다. 삼성전자는 시맨틱 SSD, 스마트 SSD 등 기존품 대비 성능을 대폭 높인 SSD를 개발했다.
작은 크기의 데이터를 읽고 쓰는 데 최적화된 시멘틱 SSD를 AI 사용하면 성능을 최대 20배 높일 수 있다는 후문이다. 스마트 SSD는 AMD 어댑티브 플랫폼 기반으로 PIM과 유사하게 스토리지에 프로세서를 장착한 제품이다.
CXL은 프로세서와 메모리 사이 고속 및 고용량 연결을 위한 개방형 표준이다. 삼성전자는 CXL의 고유한 강점을 활용해 하이퍼스케일 애플리케이션 성능과 효율성을 개선하겠다는 심산이다. 대표적으로 CXL-프로세서 니어 메모리(PNM)가 있다.
역시 PIM과 유사한 개념으로 중앙처리장치(CPU)와 메모리 사이 데이터 이동을 감소시키는 것이 골자다. 궁극적으로 AI 모델의 로딩 속도를 2배, 용량을 최대 4배까지 향상하는 것으로 알려진다.
< 저작권자 ⓒ 자본시장 미디어 'thebell', 무단 전재, 재배포 및 AI학습 이용 금지 >
관련기사
best clicks
최신뉴스 in 전체기사
-
- 키움증권 리테일 훼손 우려…이틀새 시총 2400억 증발
- 더본코리아, '노랑통닭' 인수 포기 배경은
- [i-point]탑런에이피솔루션, LG디스플레이 장비 공급 업체 등록
- [트럼프 제재 나비효과 '레드테크']한국 울리는 적색경보, 차이나리스크 확산
- [i-point]티사이언티픽, 파트너스 데이 성료…"사업 확장 속도"
- [i-point]빛과전자, 국제 전시회 참여 "미국 시장 확대"
- [탈한한령 훈풍 부는 콘텐츠기업들]잠잠한 듯했는데…JYP엔터의 중국 굴기 '반격 노린다'
- [LGU+를 움직이는 사람들]권준혁 NW부문장, 효율화 vs 통신품질 '균형' 숙제
- [저축은행경영분석]PF 늘린 한투저축, 순익 2위 등극…사후관리 '자신감'
- [저축은행경영분석]'PF 후폭풍' OK저축, 대손상각 규모만 3637억
김도현 기자의 다른 기사 보기
-
- [트럼프 제재 나비효과 '레드테크']한국 울리는 적색경보, 차이나리스크 확산
- [상호관세 후폭풍]삼성·LG, TV·가전 생산거점 '미국행' 피하기 어렵다
- [삼성전자 리더십 재편]삼성전자, DX부문 발빠른 재정비 '노태문 등용'
- [삼성전자 리더십 재편]역할 많아진 최원준, '노태문 부담 최소화' 초점
- 헥토, 스포츠토토 온라인 결제대행사 선정 '초읽기'
- 삼성, 평택 4공장 구축 속도조절 '5공장 잠정중단'
- LG이노텍, FC-BGA 조단위 투자 자신감 '빅테크 확보'
- [토종 AI 반도체 생태계 분석]망고부스트, '미완의 대기' DPU 상용화 이뤄낼까
- [Sanction Radar]중국 찾은 삼성·SK, 아슬아슬한 반도체 줄타기
- [Sanction Radar]삼성D, BOE 특허소송 '판정승'…법적다툼 계속