Samsung Electronics, the world's largest memory chip maker, is poised to supply advanced chips to Nvidia, a leading graphics processing unit manufacturer, as it aims to establish a presence in the AI chip market.
During a convocation ceremony at Hong Kong University of Science and Technology, Nvidia CEO Jensen Huang stated that the company is actively working to certify Samsung's AI memory chips, specifically considering both 8-layer and 12-layer HBM3E offerings.
High Bandwidth Memory (HBM) is a sophisticated package of vertically stacked DRAM chips designed to enhance the performance of advanced graphics processing units for AI applications. The latest fifth-generation HBM3E chips are utilized in Nvidia's Blackwell, which is currently the most advanced GPU in high demand among major AI technology firms.
Huang's comments come as Samsung seeks to provide high-value DRAM chip packages to Nvidia, which currently relies on Samsung's competitor, SK hynix, as its primary supplier.
Among the three global chipmakers capable of producing HBM chips—Samsung, SK hynix, and Micron Technology—SK hynix has gained the most from the growing HBM market, having supplied 8-layer HBM3E chips to Nvidia since March.
Samsung's chip business reported approximately half the profit of SK hynix during the July-September period, indicating a lag in the lucrative HBM market.
In its recent quarterly earnings announcement, Samsung expressed expectations to boost HBM3E sales in the fourth quarter, projecting that the product will represent about 50 percent of total HBM sales during that timeframe.
Kim Jae-june, Samsung's executive vice president overseeing the memory chip division, noted that while there was a delay in the commercialization of HBM3E chips, significant progress has been made in the chip qualification testing process with a major customer.
Nvidia's Blackwell, which is anticipated to significantly enhance AI data center performance, is expected to retail between $30,000 and $40,000 per unit and is in high demand from companies such as OpenAI, Microsoft, and Meta.
In a recent earnings call, Huang confirmed that Blackwell production is proceeding at full capacity, with demand projected to exceed supply for several more quarters. He also indicated that Nvidia plans to deliver more Blackwell units this quarter than previously estimated, having shipped 13,000 units since its introduction in March.
세계 최대 메모리 칩 제조업체인 삼성전자는 고급 AI 칩 시장에 발을 내딛으며 최고의 그래픽 처리 장치 제조업체인 엔비디아에 첨단 칩을 공급할 것으로 기대된다.
토요일 홍콩과학기술대학교 졸업식 행사에서 엔비디아 CEO이자 창립자인 젠슨 황은 블룸버그 텔레비전과의 인터뷰에서 회사가 “삼성의 AI 메모리 칩 인증을 빠르게 진행하고 있다”고 밝혔다.
황은 또한 삼성의 8층 및 12층 HBM3E 제품을 검토하고 있다고 말했다.
고대역폭 메모리(High Bandwidth Memory, HBM)는 AI 애플리케이션을 위해 고급 그래픽 처리 장치의 성능을 향상시키기 위해 주로 사용되는 수직으로 쌓은 DRAM 칩의 진보된 패키지이다. 최신 5세대 HBM3E 칩은 엔비디아의 블랙웰(Blackwell)에서 사용되며, 현재 AI 기술 기업들 사이에서 가장 높은 수요를 보이고 있는 최첨단 GPU이다.
황의 발언은 삼성전자가 엔비디아에 고부가가치 DRAM 칩 패키지를 공급하기 위해 노력하고 있는 가운데 나온 것이다. 현재 엔비디아의 주요 공급자는 삼성의 라이벌인 SK hynix이다.
HBM 칩을 생산할 수 있는 세계의 세 칩 제조업체(삼성, SK hynix 및 미국에 본사를 둔 마이크론 기술) 중에서 SK hynix는 HBM 시장의 급성장으로 가장 많은 이익을 얻고 있으며 지난 3월부터 엔비디아에 8층 HBM3E 칩을 공급하고 있다.
수익이 높은 HBM 시장에서 SK hynix에 몇 달 뒤처진 삼성의 칩 사업은 7월에서 9월 사이의 기간 동안 SK hynix의 절반 정도의 이익을 올렸다.
지난달 실망스러운 분기 실적을 발표한 삼성은 올해 4분기 HBM3E 판매를 확대할 것으로 예상하며, 이 제품이 해당 기간 동안 전체 HBM 판매의 약 50%를 차지할 것으로 예상된다고 밝혔다.
삼성 메모리 칩 사업을 담당하고 있는 부회장 김재준은 10월 31일 분기 실적 브리핑에서 “HBM3E 칩 상용화에 지연이 있었지만 주요 고객과의 칩 인증 테스트 과정에서 중요한 단계를 통과하여 의미 있는 진전을 이뤘다”고 말했다.
인공지능 데이터 센터 성능을 획기적으로 향상시키는 것으로 알려진 엔비디아의 블랙웰은 단가가 30,000달러에서 40,000달러 사이일 것으로 예상되며, OpenAI, Microsoft, Meta 등 AI 데이터 센터를 구축하는 회사들 사이에서 높은 수요를 보이고 있다.
지난주 열린 실적 발표에서 황은 블랙웰 생산이 “전면적으로 진행되고 있으며” 수요가 공급을 초과하고 있다고 말했다.
황은 “이번 분기에 우리가 이전에 예상했던 것보다 더 많은 블랙웰을 배송할 것”이라고 언급했으며, 엔비디아는 3월 출시 이후 고객에게 13,000개의 블랙웰 칩을 배송했다.