當前位置: 主頁 > 新聞 >
 

HPE推出大型語言模型的AI雲端服務

本文作者:HPE       點擊: 2023-07-05 14:06
前言:
2023年7月5日--HPE Discover 2023-Hewlett Packard Enterprise (NYSE:HPE)宣布進軍AI雲端市場,透過擴展其HPE GreenLake產品組合,為企業提供大型語言模型服務,不論是新創公司或世界500 強企業都能視需求在多租戶的超級運算雲端服務中使用此解決方案。

隨著HPE GreenLake for Large Language Models (LLMs)的推出,企業可私下在永續的超級運算平台上進行大規模的AI訓練、調整和部署。此平台結合了HPE的AI軟體和市場領先的超級電腦。HPE將攜手首個合作夥伴,德國AI新創公司Aleph Alpha一起提供HPE GreenLake for LLMs,讓使用者利用經過實際驗證並可立即使用的LLM來執行需要文本和圖像處理與分析的使用案例。

HPE計劃針對產業與特定領域推出一系列的AI應用程式,包括氣候建模、醫療保健和生命科學、金融服務、製造業和交通運輸等,而HPE GreenLake for LLMs是此系列的首款產品。

「AI市場正面臨世代轉變,並將像網路、行動技術和雲端一樣帶來重大變革。」HPE總裁暨執行長Antonio Neri表示。「以往AI僅限於資金豐富的政府實驗室和全球雲端巨頭,如今,HPE從大型語言模型切入,藉由在經過驗證的永續超級電腦上運行各種AI應用程式,讓所有人都能夠使用AI。企業組織可以利用AI以及視需求提供的雲端服務,以負責任的方式大規模地訓練、調整和部署AI模型,進而推動創新、顛覆市場並取得突破性的成果。」

HPE是超級運算領域的全球領導者和專家,為AI提供前所未有的效能和規模,包括設計出全球最快並突破百億億次級障礙的超級電腦Frontier。

與同時運行多個工作負載的通用雲端服務不同,HPE GreenLake for LLMs運行在專為單一大規模的AI訓練和模擬工作負載所設計的AI原生架構上,並充分運用其運算能力。此服務能同時支援數百個或數千個CPU或GPU上的AI和高效能運算(HPC)作業。其強大能力可以提升AI訓練的成效、可靠性和效率,並建構更準確的模型,讓企業加速從概念驗證進入實際生產,進而更快解決問題。

AI應用程式系列產品的首款解決方案-HPE GreenLake for LLMs
HPE GreenLake for LLMs將納入Luminous存取功能,這是由Aleph Alpha開發的預訓練大型語言模型,支援英語、法語、德語、義大利語和西班牙語等多種語言。此LLM模型能讓客戶使用自己的資料來訓練和微調客製化模型,以根據他們的專有知識獲得即時洞察。

這項服務讓企業得以構建和推廣各種AI應用程式,並整合至其工作流程中,以充分發揮商業和研究價值。

「藉由HPE的超級電腦和AI軟體,我們能迅速且有效率地為銀行、醫院和律師事務所等關鍵企業訓練Luminous,讓他們利用這個大型語言模型作為數位助理,加速決策流程並節省時間和資源,」Aleph Alpha創辦人暨執行長Jonas Andrulis表示。「我們很榮幸能成為HPE GreenLake for Large Language Models的合作夥伴,並期待與HPE擴大合作,將Luminous擴展至雲端,以即服務方式提供給我們的終端客戶,協助他們為商業和研究計畫開發新的應用程式。」

HPE為AI訓練、調整和部署提供超級運算的規模
HPE GreenLake for LLMs將按客戶需求提供,並在全球最強大且永續的超級電腦HPE Cray XD上運作,因此客戶無須自行購買和管理超級電腦,進而避免龐大的費用、複雜性與專業能力需求。此解決方案利用HPE Cray程式設計環境,這是完全整合的軟體套件,用於優化HPC和AI應用程式,並提供開發、移植、除錯和調整程式碼所需的完整工具。

此外,超級運算平台支援HPE的AI或ML軟體,包括可以快速訓練大規模之模型的HPE機器學習開發環境(HPE Machine Learning Development Environment)與使用再現性AI功能來整合、追蹤和稽核資料,以產生可信任和準確模型的HPE機器學習資料管理軟體(HPE Machine Learning Data Management Software)。

在永續運算環境運行HPE GreenLake for LLMs
HPE致力於為客戶提供永續的運算解決方案。HPE GreenLake for LLMs將在託管設施中運行,例如在北美的QScale為首個提供專用設計的設施,以支援超級運算所需的規模和容量,並使用近乎100%的可再生能源。1

供貨狀況
HPE GreenLake for LLMs已開放訂購,並可望於2023年底前擴大供應。此解決方案將於北美率先推出,並預計在明年初於歐洲供貨。

HPE也宣布擴展其AI推論運算解決方案。新的HPE ProLiant Gen11伺服器已針對AI工作負載進行優化,並搭載NVIDIA H100、L4 Tensor Core GPUs及L40 GPUs。HPE ProLiant DL380a和DL320 Gen11伺服器的AI推論效能較以前的機種提升了5倍以上2。如需更多資訊,請參閱HPE ProLiant伺服器。

HPE Services提供完整的服務組合,涵蓋AI計畫的策略、設計、營運及管理,一應俱全。

如需更多關於HPE GreenLake for Large Language Models (LLMs)的資訊,請至http://hpe.com/hpe-greenlake-large-language-models  

1 HPE GreenLake for Large Language Models (LLMs)將優先運行於QScale位於魁北克的主機代管設施,該設施99.5%的電力來自於再生能源。
2 NVIDIA:NVIDIA L40(TensorRT 8.6.0)和T4(TensorRT 8.5.2)的AI圖像生成效能比較,穩定擴散v2.1(512x512)。

關於 Hewlett Packard Enterprise
慧與科技公司(NYSE: HPE)是邊緣至雲端的領導廠商,幫助企業從資料中萃取出有用的分析資料,加速創造業務成效。數十年來,HPE致力於打造創新未來與創新的生活與工作方式。憑著這些經驗,HPE開發出獨特、開放式且智慧化的技術解決方案,包含雲端、運算、高效能運算與AI、智慧邊緣、軟體、及儲存,並為雲端與邊緣提供一致的使用經驗,幫助客戶開發及設計新商業模式、導入新方法,並提升操作效能。如需更多資訊,請至www.hpe.com/tw
 

電子郵件:look@compotechasia.com

聯繫電話:886-2-27201789       分機請撥:11