[반차장보고서] 젠슨 황, HBM4 6개월 조기 공급 요청…SK하이닉스, HBM3E 16H 공식화
반도체⋅부품 관련 정책 동향과 현장의 목소리를 전달하기 위해 한 주 동안 열심히 달린 <소부장반차장>이 지난 이슈의의미를 되새기고, 차주의 새로운 동향을 연결해 보고자 주간 보고서를 올립니다. <반차장보고서>를 통해 한 주를 정리해보시길 바랍니다. <편집자주>
"HBM4 6개월 당겨줘!"...'빨리빨리' 젠슨황, 최태원⋅곽노정 한숨에도 "당기겠다"
"HBM4(6세대 고대역칩메모리) 6개월 당겨줘!"
엔비다아와 SK하이닉스의 파트너십이 갈수록 뜨거워지고 있다. 엔비디아의 신제품 GPU(그래픽처리장치)의 발전읠 위해선 더 높은 성능의 HBM이 필요해지면서, SK하이닉스의 개발과 생산 속도에도 압박이 가해지고 있다.
최태원 SK그룹 회장이 4일 서울 강남구 코엑스에서 열린 SK AI 서밋 2024(SK AI Summit 2024)에 참석, 협력으로 만들어가는 AI 생태계를 주제의 기조연설에서 엔비디아 CEO 젠슨 황의 특별 영상을 공개했다. 최근 젠슨 황이 진행한 한 인터뷰로, HBM에 대한 날카로운 요구를 던지는 장면이 나왔다.
영상 속에서 젠슨 황은 "HBM의 발전 속도가 매우 훌륭하다"면서도 "하지만 솔직히 더 빨리빨리 나아가야 한다"고 말했다.
이에 대해 최 회장은 웃으며 "젠슨 황의 요구가 마치 한국인 성격을 닮았다"면서 재치있게 받아쳤다.
이어 최 회장은 "그도 모자라 젠슨 황은 HBM4의 출시를 앞당길 수 있느냐고 물었다"라며 이에 대해 최 회장이 "얼마나 앞당겨야 하느냐"고 물었더니 "6개월 안에 부탁한다라는 대답이 돌아왔다"라고 말했다.
젠슨 황 엔비디아 창립자 겸 CEO가 4일 서울 삼성동 코엑스에서 열린 SK AI 서밋에서 영상을 통해 대담에 나섰다
최 회장은 SK하이닉스 곽노정 CEO에 "가능하겠냐라고 물었다"라며 "이에 대해 곽 CEO는 최대한 당겨보겠습니다"라고 말했다고 강조했다.
그러면서 "(젠슨 황 CEO와의) 다음 미팅에 나가기가 사실 좀 두렵다"라며 "또 '더 빨리빨리' 해달라고 할 것 같아서요"라고 농담을 던졌다. 그러면서도 SK하이닉스는 이런 요구에도 발맞추기 위해 R&D 인력을 추가 투입하고 생산 속도를 극대화하는 방안을 모색 중이라고 강조했다.
SK하이닉스, HBM3E 16H '개발 공식화'…"내년 샘플 제공"
"HBM3E 16단 샘플을 내년 고객사에 제출할 예정이다."
SK하이닉스가 AI와 고성능 컴퓨팅 시장을 겨냥한 차세대 HBM3E 16단 제품을 처음으로 공식화하며, 고성능 메모리 기술 경쟁에서 선도적 입지를 강화했다.
4일 서울 강남구 코엑스에서 열린 SK AI 서밋 2024(SK AI Summit 2024 )에서 기조연설자로 나선 곽노정 SK하이닉스 CEO는 HBM3E 16단 제품의 개발 현황과 성능을 발표했다.
곽 CEO은 "HBM3E 16단 제품은 기존 12단 구성 대비 학습 성능이 18%, 추론 성능이 32% 향상되는 것으로 확인됐다"라며 "이로써 고도화된 AI 연산과 대규모 데이터 처리를 요구하는 최신 시스템에서 더욱 효율적인 성능을 제공할 수 있을 것으로 기대된다"라고 말했다.
이어 "SK하이닉스는 내년 초부터 이 제품의 샘플을 고객사에 제공할 예정이며, 이를 통해 AI 시장의 급증하는 메모리 수요에 대응하겠다는 계획이다"라고 덧붙였다.
이번 HBM3E 16단의 첫 공식화는 6세대 HBM4가 12단과 16단 구성이 이미 예상되는 가운데 SK하이닉스가 선제적으로 시장 요구를 충족시키기 위한 기술 개발 속도를 높이고 있음을 의미한다.
HBM4 개발 계획도 함께 언급됐다. 곽 CEO는 "SK하이닉스는 차세대 HBM4에 자사의 고성능 패키지 기술인 어드밴스드 MR-MUF 기술과 함께 하이브리드 본딩 기술을 적용할 계획이다"라고 밝혔다.
곽 CEO는 "우리는 HBM3E 16단을 통해 고객들에게 지금보다 더 많은 가치를 제공할 준비가 돼 있다"라며, SK하이닉스가 차세대 AI 메모리 시장에서 기술 지배력을 강화하겠다는 의지를 밝혔다.
"HBM 한계, CXL로 넘는다"... SK하이닉스의 AI 메모리 비전
"HBM의 한계를 넘어서기 위해 CXL이 필요하다."
'SK AI 서밋 2024(SK AI Summit 2024)에서 둘째 날인 5일, SK하이닉스는 차세대 메모리 기술로 AI 시대의 요구를 충족하기 위한 전략을 발표했다. 이번 발표를 맡은 SK하이닉스 강욱성 부사장과 폴 페이(Paul Fahey) 부사장은 HBM(고대역폭 메모리)과 CXL(Compute Express Link) 메모리의 상호 보완적 역할을 강조하며, AI 메모리 시장의 미래를 제시했다.
두 부사장은 AI 모델의 성능 향상과 함께 메모리 수요가 급증하면서 HBM 대역폭의 한계가 더욱 뚜렷해지고 있다고 입을 모았다.
강 부사장은 "HBM의 대역폭이 한계에 이르면서, AI가 요구하는 고성능 워크로드를 완전히 수용하기에는 어려움이 있다"고 설명했다. UC 버클리 연구 자료에 따르면, GPU(그래픽처리장치) 성능이 2년마다 약 3배씩 증가하고 있지만, HBM 메모리의 대역폭 증가는 이에 미치지 못해, AI의 급증하는 메모리 요구와의 간극이 커지고 있는 상황이다.
이에 따라 SK하이닉스는 CXL 메모리가 HBM의 한계를 보완할 수 있는 유망한 솔루션으로 주목받고 있다고 강조했다. CXL 메모리는 기존의 메모리 구조와 달리, 서버 외부에서 메모리 풀(pool) 형태로 여러 호스트가 공유할 수 있도록 지원해, 메모리 자원을 효율적으로 분배할 수 있다.
페이 부사장은 "CXL 메모리는 CPU와 GPU 간의 메모리 자원을 유연하게 공유하게 해, 병목 현상을 해소하고 데이터센터의 총 소유 비용(TCO)을 절감할 수 있다"고 설명했다. 그는 "CXL을 통해 메모리 풀링이 가능해지면서, 필요할 때 메모리를 동적으로 확장할 수 있어 데이터센터의 운영 효율성을 극대화할 수 있다"라고 덧붙였다.
CXL 외에도, 메모리 내부에서 연산을 수행하는 PIM 기술이 AI 워크로드에서 중요한 역할을 할 것이라고 강조했다. PIM은 CPU와 메모리 간 데이터 이동을 최소화해 대역폭을 극대화하고 에너지 효율성을 높일 수 있는 기술로, AI 서버의 처리 속도와 성능을 크게 개선할 수 있다.
삼성전자 노사, 임협 5.1% 인상·패밀리넷 200만 포인트 합의
2024-11-14 19:53:31SK C&C, 3분기 매출 5835억원…전년비 12.1%↑
2024-11-14 18:06:27LG CNS, 3분기 영업익 60%↑…올해 누적매출 4조원 육박
2024-11-14 17:47:45"파라미터 크기만 보던 AI 시대 저문다…양보다 질로 승부"
2024-11-14 17:46:15