HPE Blog, Japan
1777010 メンバー
3422 オンライン
109062 解決策
新規ポスト
KotaroS

セキュアな生成AIを導入してみませんか?

皆様、こんにちは。HPEの坂井です。

季節は春になり過ごしやすい日々が増えてきましたが、今ホットな話題と言えば生成AIです。それはビジネスの枠を超えて、一般社会にまで浸透しつつあります。皆様の中にも使ったことがあるという方は多いのではないでしょうか?

一方、ビジネス環境で既存の生成AIを利用しようとすると、どうしても気になるのがプライバシーやセキュリティといった大きなリスクです。一部ニュースでは、既に被害が発生しているという情報も報じられています。生成AIを活用して業務効率化したいけど、社外に情報を出すのは心配だなと悩まれている方も多くいらっしゃると思います。

上記のようなリスクを回避するため、今プライベートなAI環境を構築しようとする動きが活発になってきていますが、ここで重要なポイントの一つがどういったシステムで構築するのかです。
HPE Superdome Flexは、生成AIをはじめとする様々なAI用途のソリューションをご提供可能です。本日はその一部をご紹介いたします。

■HPE Superdome FlexのAIソリューション

1. HPE Superdome Flex & NVIDIA GPU

Superdome Flexは、1つのシステムで多くのNVIDIA GPUを搭載することが出来ます。例えば、NVIDIA A100だと最大で8枚搭載可能です。NVIDIA T4であれば、なんと最大16枚搭載することができます。
汎用的なサーバーよりも多くのGPUを搭載することで、処理を分散させることなくAIのタスクをこなすことが可能です。また、Superdome Flexの特徴である高性能CPU、大容量メモリによって、例えば入力データが多い場合などで汎用サーバーよりも効率的に活用することができます。

スライド2.PNG

2023年4月時点でサポートされているGPUは、NVIDIA A100A40 (Superdome Flex 280のみ)A30T4の4種類でそれぞれ異なったワークロードに最適化されています。
例えばA100の場合、高性能なチップと大容量、広帯域のメモリが搭載されており、HPCやDeep Learningなどに適しています。

スライド.png

GPUは性能向上に比例して増々消費電力が上がっています。それに伴い筐体内で熱問題が発生し、汎用サーバーではその熱に耐えきれないこともしばしばあります。Superdome Flexは余裕のある筐体と徹底的に効率化したエアフローにより、発熱を気にすることなく複数のGPUを搭載することが可能です。

2. HPE Superdome Flex & Cerebras CS-2 (AIアクセラレーター)

AIワークロードには、GPUが必須である。
このように思われている方も多くいらっしゃると思います。事実、現在AI分野で使用されているほとんどのサーバーにはGPUが搭載されています。

しかし今、AIの進化とともにGPUの限界が近づいてきています。
AIモデルのパラメータ数は年々右肩上がりになっており、現在では数千億パラメータというようなモデルも発表されています。GPUのチップやメモリでは、このような大規模なモデルを処理することが難しい状況になってきています。

パラメータ数.png

こうしたAIの進化の中でより強力なコンピュートリソースが求められてきていますが、この課題を解決する新しいソリューションがAIアクセラレーターです。
GPUは本来画像処理を行う目的で開発が行われたもので、完全にAI処理に最適化できないことがあります。一方、AIアクセラレーターは開発、設計段階からAI処理を行うことを目的としており、AIワークロードに特化した専用プロセッサーとなっております。

AIの急速な進化によりAIアクセラレーターの重要性が認知され始めてきていますが、それに先駆けてHPEはAIアクセラレーター、Cerebrasの国内販売代理店をされています東京エレクトロンデバイス様と共同で検証を行いました。(詳しい検証内容については下部リンクをご参照ください!)

Cerebrasというと3月にCerebras-GPTが公開され、オープンな学習済みモデルということで大きな話題となっております。

検証ではそのCerebrasが提供するAIアクセラレーター、CS-2とSuperdome Flexは、非常に高いパフォーマンスを発揮することができる組み合わせだということを確認しました。
特にCerebrasは某チャットボットに代表されるような自然言語処理に最適化されており、低い消費電力で圧倒的な性能を活用することができます。

大規模な自然言語処理を検討されている場合は、GPUだけでなくAIアクセラレーターという選択肢があることを覚えていただければと思います。

SDF_Cerebras.png

■ 今回のまとめ

① 既存の生成AIを使用する場合、プライバシーやセキュリティのリスクが存在

② プライベートなAI環境を構築する際は、システムの選択が重要

③ HPE Superdome Flexでは従来のGPUを用いたソリューションに加え、最新のAIアクセラレーターを組み合わせたソリューションを提供可能

話題の生成AIを導入するうえで大きなコンピュートリソースが必要になりますが、GPUを利用するか、AIアクセラレーターを利用するかは難しいポイントです。
HPEではどちらのソリューションもご提案が可能です!

生成AIの導入でお困りでしたら、ぜひHPEにお問い合わせください!

■お知らせ

2023年6月6日から行われる人工知能学会全国大会の東京エレクトロンデバイス様のブースでCerebras CS-2が展示されます!

当日は専門の担当者がいらっしゃるとのことで、ここでは書ききれなかったCerebrasの詳しい情報をお話しいただけると思います。(数量限定でCerebras CS-2に搭載されている巨大なチップをイメージしたノベルティも配布されるとのことです!)

東京エレクトロンデバイス様のブースにて、Superdome Flex + Cerebrasのソリューションについても解説いたしますので、ぜひご参加ください!

また、人工知能学会全国大会にはHPEのブースもありますので、こちらにもぜひお越しください!

 

・開催案内

2023年度 人工知能学会全国大会(第37回)

日程: 2023年6月6日(火)~9日(金)
会場: 熊本城ホール(熊本県熊本市) + オンライン

東京エレクトロンデバイス様ブース: E56
東京エレクトロンデバイス様ランチョンセミナー: F会場(大会議室A3) [6月6日のみ]

HPEブース: E28(オンライン展示あり)
HPEランチョンセミナー:D会場(大会議室A1) [6月6日のみ]


 

0 感謝
作者について

KotaroS

日本ヒューレット・パッカード合同会社 ミッションクリティカルサーバー担当プリセールス