- Community Home
- >
- HPE Community, Japan
- >
- HPE Blog, Japan
- >
- セキュアな生成AIを導入してみませんか?
カテゴリ
Company
Local Language
フォーラム
ディスカッションボード
フォーラム
- Data Protection and Retention
- Entry Storage Systems
- Legacy
- Midrange and Enterprise Storage
- Storage Networking
- HPE Nimble Storage
ディスカッションボード
フォーラム
ディスカッションボード
ディスカッションボード
ディスカッションボード
フォーラム
ディスカッションボード
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
- BladeSystem Infrastructure and Application Solutions
- Appliance Servers
- Alpha Servers
- BackOffice Products
- Internet Products
- HPE 9000 and HPE e3000 Servers
- Networking
- Netservers
- Secure OS Software for Linux
- Server Management (Insight Manager 7)
- Windows Server 2003
- Operating System - Tru64 Unix
- ProLiant Deployment and Provisioning
- Linux-Based Community / Regional
- Microsoft System Center Integration
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
フォーラム
ブログ
セキュアな生成AIを導入してみませんか?
皆様、こんにちは。HPEの坂井です。
季節は春になり過ごしやすい日々が増えてきましたが、今ホットな話題と言えば生成AIです。それはビジネスの枠を超えて、一般社会にまで浸透しつつあります。皆様の中にも使ったことがあるという方は多いのではないでしょうか?
一方、ビジネス環境で既存の生成AIを利用しようとすると、どうしても気になるのがプライバシーやセキュリティといった大きなリスクです。一部ニュースでは、既に被害が発生しているという情報も報じられています。生成AIを活用して業務効率化したいけど、社外に情報を出すのは心配だなと悩まれている方も多くいらっしゃると思います。
上記のようなリスクを回避するため、今プライベートなAI環境を構築しようとする動きが活発になってきていますが、ここで重要なポイントの一つがどういったシステムで構築するのかです。
HPE Superdome Flexは、生成AIをはじめとする様々なAI用途のソリューションをご提供可能です。本日はその一部をご紹介いたします。
■HPE Superdome FlexのAIソリューション
1. HPE Superdome Flex & NVIDIA GPU
Superdome Flexは、1つのシステムで多くのNVIDIA GPUを搭載することが出来ます。例えば、NVIDIA A100だと最大で8枚搭載可能です。NVIDIA T4であれば、なんと最大16枚搭載することができます。
汎用的なサーバーよりも多くのGPUを搭載することで、処理を分散させることなくAIのタスクをこなすことが可能です。また、Superdome Flexの特徴である高性能CPU、大容量メモリによって、例えば入力データが多い場合などで汎用サーバーよりも効率的に活用することができます。
2023年4月時点でサポートされているGPUは、NVIDIA A100、A40 (Superdome Flex 280のみ)、A30、T4の4種類でそれぞれ異なったワークロードに最適化されています。
例えばA100の場合、高性能なチップと大容量、広帯域のメモリが搭載されており、HPCやDeep Learningなどに適しています。
GPUは性能向上に比例して増々消費電力が上がっています。それに伴い筐体内で熱問題が発生し、汎用サーバーではその熱に耐えきれないこともしばしばあります。Superdome Flexは余裕のある筐体と徹底的に効率化したエアフローにより、発熱を気にすることなく複数のGPUを搭載することが可能です。
2. HPE Superdome Flex & Cerebras CS-2 (AIアクセラレーター)
AIワークロードには、GPUが必須である。
このように思われている方も多くいらっしゃると思います。事実、現在AI分野で使用されているほとんどのサーバーにはGPUが搭載されています。
しかし今、AIの進化とともにGPUの限界が近づいてきています。
AIモデルのパラメータ数は年々右肩上がりになっており、現在では数千億パラメータというようなモデルも発表されています。GPUのチップやメモリでは、このような大規模なモデルを処理することが難しい状況になってきています。
こうしたAIの進化の中でより強力なコンピュートリソースが求められてきていますが、この課題を解決する新しいソリューションがAIアクセラレーターです。
GPUは本来画像処理を行う目的で開発が行われたもので、完全にAI処理に最適化できないことがあります。一方、AIアクセラレーターは開発、設計段階からAI処理を行うことを目的としており、AIワークロードに特化した専用プロセッサーとなっております。
AIの急速な進化によりAIアクセラレーターの重要性が認知され始めてきていますが、それに先駆けてHPEはAIアクセラレーター、Cerebrasの国内販売代理店をされています東京エレクトロンデバイス様と共同で検証を行いました。(詳しい検証内容については下部リンクをご参照ください!)
Cerebrasというと3月にCerebras-GPTが公開され、オープンな学習済みモデルということで大きな話題となっております。
検証ではそのCerebrasが提供するAIアクセラレーター、CS-2とSuperdome Flexは、非常に高いパフォーマンスを発揮することができる組み合わせだということを確認しました。
特にCerebrasは某チャットボットに代表されるような自然言語処理に最適化されており、低い消費電力で圧倒的な性能を活用することができます。
大規模な自然言語処理を検討されている場合は、GPUだけでなくAIアクセラレーターという選択肢があることを覚えていただければと思います。
■ 今回のまとめ
① 既存の生成AIを使用する場合、プライバシーやセキュリティのリスクが存在
② プライベートなAI環境を構築する際は、システムの選択が重要
③ HPE Superdome Flexでは従来のGPUを用いたソリューションに加え、最新のAIアクセラレーターを組み合わせたソリューションを提供可能
話題の生成AIを導入するうえで大きなコンピュートリソースが必要になりますが、GPUを利用するか、AIアクセラレーターを利用するかは難しいポイントです。
HPEではどちらのソリューションもご提案が可能です!
生成AIの導入でお困りでしたら、ぜひHPEにお問い合わせください!
■お知らせ
2023年6月6日から行われる人工知能学会全国大会の東京エレクトロンデバイス様のブースでCerebras CS-2が展示されます!
当日は専門の担当者がいらっしゃるとのことで、ここでは書ききれなかったCerebrasの詳しい情報をお話しいただけると思います。(数量限定でCerebras CS-2に搭載されている巨大なチップをイメージしたノベルティも配布されるとのことです!)
東京エレクトロンデバイス様のブースにて、Superdome Flex + Cerebrasのソリューションについても解説いたしますので、ぜひご参加ください!
また、人工知能学会全国大会にはHPEのブースもありますので、こちらにもぜひお越しください!
・開催案内
日程: 2023年6月6日(火)~9日(金)
会場: 熊本城ホール(熊本県熊本市) + オンライン
東京エレクトロンデバイス様ブース: E56
東京エレクトロンデバイス様ランチョンセミナー: F会場(大会議室A3) [6月6日のみ]
HPEブース: E28(オンライン展示あり)
HPEランチョンセミナー:D会場(大会議室A1) [6月6日のみ]
- HPE.com
- HPE Superdome Flex Family
- 「共同記事第1弾」【GPUではなく、AI専用プロセッサーという選択肢】AIモデル開発にCerebras×Superdome Flex
- 「共同記事第2弾」【巨大ディープラーニングモデルにミッションクリティカルサーバーという選択肢】AIモデル学習にSuperdome Flex× Cerebras ※東京エレクトロンデバイス様サイト
- 「共同記事第3弾」【Cerebras × Superdome Flex第3弾】 Superdome Flexの特徴に迫る!
- 「共同記事第4弾」【Cerebras × Superdome Flex第4弾】Superdome Flex×Cerebras共同検証結果と解説 ※東京エレクトロンデバイス様サイト
- Cerebras-GPT: オープンな計算効率の良い大規模言語モデル群 ※Cerebras社様サイト
- Cerebras-GPTがリリースされました ※東京エレクトロンデバイス様サイト
- ブログへ戻る
- より新しい記事
- より古い記事
- kkuma 場所: HPE Linux技術情報サイトの歩き方~CentOS代替ディストビューション情報について~
- 土井康裕 場所: 篠田の虎の巻「PostgreSQL 15 GA 新機能検証結果」公開!
- MiwaTateoka 場所: Windows Server 2019のCertificate of Authenticity (C...
- 今更感 場所: 【連載】導入前のアドバイス – アレイコントローラー
- OEMer 場所: タイトル: HPE OEM Windows Serverのライセンスに関する質問にすべて回答しましょ...
- いわぶちのりこ 場所: 【連載】次世代ハイパーコンバージド「HPE SimpliVity」を取り巻くエコシステム ー 第3回...
- Yoshimi 場所: ジェフェリー・ムーア氏からのメッセージ - 未訳の新著 "Zone To Win" を解説! (2)...
- Yoshimi 場所: ジェフェリー・ムーア氏からのメッセージ - 未訳の新著 "Zone To Win" を解説! (...
- 三宅祐典 場所: 「HPE Synergy」 発表! ~ (3) この形・・・ ブレードサーバー??