HPE, 연례행사서 그린레이크 포트폴리오 확장 발표
[디지털데일리 이종현기자] HPE는 자사 연례행사 ‘HPE 디스커버 라스베이거스 2023’에서 ‘그린레이크(GreenLake)’ 포트폴리오를 확장해 인공지능(AI) 클라우드 시장에 진출했다고 22일 밝혔다. 대규모언어모델(LLM)을 위한 ‘LLM용 그린레이크’도 첫선을 보였다.
HPE의 LLM용 그린레이크는 HPE의 인공지능(AI) 소프트웨어(SW)와 고성능컴퓨팅(HPC)을 함께 활용할 수 있는 슈퍼컴퓨팅 플랫폼이다. HPE는 전 세계 1위 슈퍼컴퓨터 ‘프론티어’를 구축했다. 10위권 슈퍼컴퓨터 중 1, 3, 8위를 HPE가 구축했다.
HPE는 기업들이 LLM용 그린레이크를 도입함으로써 자체적으로 대규모 AI 모델을 훈련, 조정 및 배포할 수 있다고 강조했다. 업계에서 검증된 LLM을 바로 사용할 수 있도록 독일 AI 스타트업 파트너 알레프 알파(Aleph Alpha)와 협력해 LLM용 HPE 그린레이크를 제공한다. 텍스트와 이미지 처리 및 분석이 필요한 사용사례 개발에 박차를 가하도록 지원한다는 방침이다.
향후 HPE는 기후모델, 헬스케어, 생명과학, 금융서비스, 제조 및 운송에 이르기까지 다양한 업계 및 도메인에 특화된 AI 애플리케이션(앱) 시리즈를 출시할 예정이다. 이번에 선보인 LLM용 그린레이크는 해당 시리즈의 시작을 알리는 제품이다.
안토니오 네리(Antonio Neri) HPE 회장 겸 최고경영자(CEO)는 “오늘날 우리는 웹, 모바일 및 클라우드만큼 혁신적인 AI 시장의 세대변화를 마주하고 있다. HPE의 입증된 지속가능한 슈퍼컴퓨팅에서 구동되는 LLM 등 다양한 AI 앱을 제공함으로써 HPE는 자금력이 풍부한 정부출연연구소나 글로벌 클라우드 대기업의 전유물이었던 AI를 HPE의 검증된 슈퍼컴퓨터를 통해 모두가 접근할 수 있는 영역으로 만들고 있다”고 말했다.
이어서 “이제 많은 기관과 기업들은 온디맨드 클라우드 서비스를 통해 AI 모델을 훈련, 조정 및 배포함으로써, AI를 활용해 혁신을 일으키고 시장에 변화를 꾀하고 돌파구를 찾을 수 있게 됐다”고 부연했다.
HPE는 병렬 구조로 여러 워크로드를 동시에 처리하는 다른 범용 클라우드 서비스와는 달리, HPE의 LLM 그린레이크는 컴퓨팅 역량을 최대로 활용해 대규모 단일 AI 트레이닝 및 시뮬레이션 워크로드를 처리할 수 있도록 특별히 제작된 AI 네이티브 아키텍처에서 구동된다고 전했다.
해당 제품은 수백에서 수천개의 중앙처리장치(CPU) 또는 그래픽처리장치(GPU)에서 구동되던 AI 및 HPC 업무를 한 번에 지원할 수 있다. 기업들은 이를 통해 개념검증(PoC)단계에서 생산에 이르기까지 모든 과정을 더욱 가속화해 기업이 직면한 문제를 더욱 빠르게 처리할 수 있다는 것이 HPE의 설명이다.
조나스 안드룰리스(Jonas Andrulis) 알레프 알파 설립자 겸 CEO는 “HPE의 슈퍼컴퓨터 및 AI SW를 활용해서 알레프 알파는 더욱 효율적이고 신속하게 루미너스를 훈련할 수 있었다. 루미너스는 은행, 병원 및 로펌과 같은 주요 비즈니스들이 의사결정을 더욱 빠르게 내리고 시간과 자원을 절약할 수 있도록 도와주는 디지털 어시스턴트다. 파트너로서 HPE LLM용 그린레이크의 출시를 함께할 수 있어 매우 자랑스럽다”고 말했다.
이어서 “향후 HPE와의 협력 확대를 통해 루미너스를 클라우드로 확장하고 고객들에게 이를 서비스형(As-a-service)으로 제공함으로써 최종 고객들이 비즈니스와 연구 목표를 위한 새로운 애플리케이션 활용에 박차를 가할 수 있기를 기대하고 있다”고 피력했다.
뒤숭숭한 정국에도 매서운 이복현… "금융지주사 검사 결과 발표, 원칙대로 '매운맛' 유지"
2024-12-20 17:36:50[DD퇴근길] 우티, 티맵 손 떼고 우버 단독체제…넷플릭스에 올라탄 SBS
2024-12-20 17:11:09[2024 IT혁신상품] 실효성과 안정성 갖춘 제로트러스트 솔루션 'SGA ZTA'
2024-12-20 17:10:54