(지디넷코리아=장경윤 기자)SK하이닉스가 당초 AMD와 협의하던 내년 HBM 물량을 글로벌 주요 CSP(클라우드서비스제공자)에 할당했다. 기존 AMD향으로 운영되던 생산라인도 이미 가동을 멈춘 것으로 파악됐다.
현재 SK하이닉스는 핵심 고객사인 엔비디아를 제외한 HBM 공급 여력이 여유롭지 않은 상황이다. 때문에 보다 사업성이 유망한 고객사와의 협력을 확대하는 '선택과 집중' 전략을 구사한 것으로 풀이된다.
17일 지디넷 취재에 따르면 SK하이닉스는 올 연말부터 HBM 생산능력을 아마존웹서비스(AWS), 구글 등에 확대 배정하고 있다.
SK하이닉스 HBM3E 12단(사진=SK하이닉스)
기존 AMD향 HBM 양산 멈춰…HBM3E도 공급 않기로
기존 SK하이닉스는 AMD에 HBM을 소량 공급해 왔다. AMD는 지난해 말 고성능 AI 가속기 'MI300X'를 출시한 바 있다. MI300X에는 4세대 HBM인 HBM3가 8개 탑재됐다.
나아가 AMD는 올 연말 차세대 AI 가속기인 'MI325X'의 양산을 시작하고, 내년 1분기 본격적인 상용화에 나설 계획이다. MI325X는 5세대 HBM인 HBM3E 12단 제품을 8개 활용한다.
이에 SK하이닉스는 AMD와 HBM3E 공급에 대한 협의를 진행해 왔으나, 최종적으로 AMD에 HBM3E를 공급하지 않는 것으로 결론을 내렸다. 기존 AMD를 위해 양산되던 HBM 라인도 지난 3분기께 가동을 멈춘 것으로 파악됐다.
해당 사안에 정통한 관계자는 "SK하이닉스가 올해 상반기부터 AMD와 HBM3E를 두고 구체적인 공급 협상을 진행했었다. 고객사용으로 미리 HBM 캐파(생산능력)를 미리 빼둬야 하기 때문"이라며 "다만 가격 등 사업적인 측면에서 양사 간 이견이 있었고, SK하이닉스의 HBM 캐파가 여유롭지 않아 협업이 무산된 것으로 안다"고 설명했다.
AWS가 자체 설계한 AI반도체 트레이니엄(사진=AWS)
AWS·구글 등과 협력 확대…HBM 사업 '선택과 집중'
SK하이닉스가 AMD용으로 상정했던 HBM 물량은 AWS, 구글 등 글로벌 CSP 업체로 배정됐다.
이들 CSP는 지금까지 HBM의 주요 고객사는 아니었다. 자체적으로 AI용 ASIC(주문형반도체)를 개발하기는 했으나, 물량이 적고 비교적 구세대의 HBM을 필요로 했기 때문이다.
그러나 AI 산업이 확대되고, 각 기업의 맞춤형 AI 인프라 구축이 활발해지면서 상황이 급변했다. 일례로 구글은 자체 개발한 6세대 TPU(텐서처리장치) '트릴리움(Trillium)'에 HBM3E를 탑재해 올 연말부터 양산에 돌입했다.
AWS는 AI 학습용으로 자체 개발한 '트레이니엄(Trainium)' 칩셋에 HBM을 활용하고 있다. 반도체 전문 분석기관 세미아날리시스에 따르면, AWS가 올 연말 출시한 트레이니엄2에는 HBM3와 HBM3E가 모두 활용된다.
고성능 제품의 경우 2개의 트레이니엄2 칩과 4개의 HBM3E 메모리가 하나의 패키지로 집적된다. 해당 패키지는 대만 주요 파운드리인 TSMC의 'CoWoS'를 기반으로 한다. CoWoS는 칩과 기판 사이에 인터포저라는 얇은 막을 삽입해, 패키징 면적을 줄이고 칩 간 연결성을 높이는 2.5D 패키징의 일종이다.
이들 CSP의 칩은 내년 초부터 본격적인 상용화 궤도에 오를 예정이다. 이에 맞춰 SK하이닉스도 핵심 고객사인 엔비디아와 더불어, AWS·구글 등에 HBM 공급을 확대할 것으로 관측된다.
또 다른 관계자는 "최근 AWS가 TSMC의 2.5D 패키징 물량 비중에서 AMD를 제칠 만큼 출하량 확대에 적극적으로 나서고 있다"며 "SK하이닉스도 이에 맞춰 내년 HBM 사업에서 선택과 집중 전략을 펼치는 추세"라고 말했다.
장경윤 기자(
[email protected])