- Community Home
- >
- HPE Community, Japan
- >
- HPE Blog, Japan
- >
- 【HPE AI Japan】HPEの生成AIオファリング
カテゴリ
Company
Local Language
フォーラム
ディスカッションボード
フォーラム
- Data Protection and Retention
- Entry Storage Systems
- Legacy
- Midrange and Enterprise Storage
- Storage Networking
- HPE Nimble Storage
ディスカッションボード
フォーラム
ディスカッションボード
ディスカッションボード
ディスカッションボード
フォーラム
ディスカッションボード
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
- BladeSystem Infrastructure and Application Solutions
- Appliance Servers
- Alpha Servers
- BackOffice Products
- Internet Products
- HPE 9000 and HPE e3000 Servers
- Networking
- Netservers
- Secure OS Software for Linux
- Server Management (Insight Manager 7)
- Windows Server 2003
- Operating System - Tru64 Unix
- ProLiant Deployment and Provisioning
- Linux-Based Community / Regional
- Microsoft System Center Integration
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
フォーラム
ブログ

【HPE AI Japan】HPEの生成AIオファリング
こんにちは、HPEでインフラ周りのプリセールスをしている片山です。
前回に続きまして、オンプレプライベート生成AIの需要に即して、HPEがどのようなオファリングをご用意しているかをご紹介します。
LLMの開発・利用ステップから見る計算リソース
LLMを例にあげると、モデルを作るTrainingフェーズから、モデルをカスタマイズするTuningフェーズ、モデルを使うInferenceフェーズとステップが分かれます。モデルを一から作るフェーズから始める場合は自由度が高い反面、必要となる計算リソースも膨大になり、その規模はGPUx数百枚~、数十日~、かかると言われています。また、必ずしも良質なモデルができるかわからない、というのが企業投資観点で見てもどこのフェーズから始めるのか判断が難しいところに思われます。
そのため、まずはMeta社のLlama 3に代表されるようなオープンソースで提供されるLLMを活用して、RAG:Retrieval Augmented Generation(検索拡張生成)を利用したモデルを使うInferenceフェーズから始めることが考えられます。
再掲になりますが、RAGを利用する場合でもモデルがクラウド上にホストされる場合、固有のデータもクラウドに流れてしまう仕組みのため、Inferenceフェーズからオンプレミスを検討する必要性が出てきます。
AI特化のNew汎用HPE ProLiantサーバーラインナップ
2024年6月17日~20日にかけてHPE Globalでの年次イベントであるHPE Discover Las Vegas 2024が開催されました。様々な発表があったものの、その中心はNVIDIA社との協業、およびAIにフォーカスした内容でした。
汎用サーバーであるProLiantシリーズはInference~Tuningフェーズを中心に支える基盤の位置づけとなりますが、2024年7月23日にMeta社のLlama 3.1 405Bモデルがリリースされ、Inferenceのみでも16bit Floatで利用しようとすると405 x 2(Byte) = 810GB +α 以上のGPUメモリが必要となってくるので、このタイミングで汎用サーバーでのGPU拡充化は非常によいタイミングに思えます。
<参考出典>Meta社Llama 3.1
HPEの生成AIオファリング
HPEでは、汎用サーバーのGPU拡充化に伴い、最適化されたハードウェアおよび、各種HPEが提供可能なAIプラットフォームソフトウェアを合わせたソリューションオファリングを整備しております。
前述におけるHPE Discover Las Vegas 2024では、“NVIDIA AI Computing by HPE”と題して、HPEとNVIDIAが密に連携して共同開発および共同で市場開拓を実施する取り組みを促進していくことを発表しました。その具現化の一つの形として、共同開発したエンタープライズAIソリューションである“HPE Private Cloud AI”は、数多あるAIプラットフォームソフトウェアやモデルをオンプレミスのプライベートクラウドとして使いやすく・運用しやすく提供するターンキーソリューションとして大々的に打ち出しています。
<参考出典>
HPE Private Cloud AIはInference~Tuningフェーズにフォーカスしたソリューションですが、
HPEではCrayサーバーやMachine Learning Development EnvironmentソフトウェアをベースにTrainingにフォーカスした“Machine Learning Development System”、
水冷スパコンをベースとした“Super Computing Solution for Generative AI”などのHPC&AI系ソリューション、
HPE Private Cloud AIでは少しオーバースペック気味なお客様向けに、LLM Sandboxと呼ばれる構築サービス付きのスターターキット、
Inference用途特化として、協業パートナー企業のソフトウェアをホストして1サーバー+1GPUから始められるソリューションなど、
生成AI開発・利活用ステップのフェーズ毎にご用意しております。
ご興味ございましたらぜひ弊社営業までお問い合わせください。
- ブログへ戻る
- より新しい記事
- より古い記事
- kkuma 場所: HPE Linux技術情報サイトの歩き方~CentOS代替ディストビューション情報について~
- 土井康裕 場所: 篠田の虎の巻「PostgreSQL 15 GA 新機能検証結果」公開!
- MiwaTateoka 場所: Windows Server 2019のCertificate of Authenticity (C...
- 今更感 場所: 【連載】導入前のアドバイス – アレイコントローラー
- OEMer 場所: タイトル: HPE OEM Windows Serverのライセンスに関する質問にすべて回答しましょ...
- いわぶちのりこ 場所: 【連載】次世代ハイパーコンバージド「HPE SimpliVity」を取り巻くエコシステム ー 第3回...
- Yoshimi 場所: ジェフェリー・ムーア氏からのメッセージ - 未訳の新著 "Zone To Win" を解説! (2)...
- Yoshimi 場所: ジェフェリー・ムーア氏からのメッセージ - 未訳の新著 "Zone To Win" を解説! (...
- 三宅祐典 場所: 「HPE Synergy」 発表! ~ (3) この形・・・ ブレードサーバー??