- Community Home
- >
- HPE Community, Japan
- >
- HPE Blog, Japan
- >
- 【HPE AI Japan】生成AIの市場動向とオンプレLLMの必要性
カテゴリ
Company
Local Language
フォーラム
ディスカッションボード
フォーラム
- Data Protection and Retention
- Entry Storage Systems
- Legacy
- Midrange and Enterprise Storage
- Storage Networking
- HPE Nimble Storage
ディスカッションボード
ディスカッションボード
ディスカッションボード
ディスカッションボード
フォーラム
ディスカッションボード
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
- BladeSystem Infrastructure and Application Solutions
- Appliance Servers
- Alpha Servers
- BackOffice Products
- Internet Products
- HPE 9000 and HPE e3000 Servers
- Networking
- Netservers
- Secure OS Software for Linux
- Server Management (Insight Manager 7)
- Windows Server 2003
- Operating System - Tru64 Unix
- ProLiant Deployment and Provisioning
- Linux-Based Community / Regional
- Microsoft System Center Integration
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
フォーラム
ブログ

【HPE AI Japan】生成AIの市場動向とオンプレLLMの必要性
こんにちは、HPEでインフラ周りのプリセールスをしている片山です。
昨今の生成AIブームに追随して、オンプレLLM(プライベートLLM)の要望もちらほら聞くようになってきました。HPEでも従来同様の伝統的なAI(Traditional AI)へのアプローチに加えて、生成AI(Generative AI)へのアプローチも整備しており、製品、ソリューションの話だけでなく、皆様に役立つ情報も発信させていただこうと考えておりますので、ご期待ください。
生成AI市場の需要(Global、日本)と従来のAI(Traditional AI)との違い
電子情報技術産業協会JEITA様の報道資料を抜粋させていただくと、Global、日本とも2023年から7年間年平均約50%成長という予想がされています。
pic01. 生成AIの市場動向
出典:一般社団法人 電子情報技術産業協会JEITA 報道資料(2023/12/21)
ここ数年、期待度が高い生成AIの領域について詳しく見ていきましょう。
生成AI(Generative AI)はコンテンツを生成することから派生したユースケースに適しており、
不良品検知(分類)や、株価予測(時系列予測)、市場分析(クラスタリング)などの従来からあるAI(Traditional AI)と区別されることが多くなってきており、ユースケースによってどちらが適しているか選択し使い分ける必要がでてきました。
また同じユースケースでも、例えばカスタマーサポート用アシスタントとして活躍するチャットボットのようなケースでは、必ずしも生成AIが当てはまるわけではなく、まるで人間のような応答レベルが求められるケースには、用意したQ&A集の範囲内しか答えられない(逆に答えないようにする制御する)ようなルールベースを用いた従来のAIが適しています。
“頭の良さの度合い”および“複雑な表現を実行可能な度合い”を示すパラメータ数を比較すると、
従来のAIの代表格である画像認識分野で有名なResNet50v2だと約25.6M、VGG19だと約143.7M(Million)、
一方、生成AIの代表格である、Meta社のOSSであるLlama-2やLlama-3だと小さいものでも約7、8B(billion)にもなり、パラメータ数は従来のAIの約50倍~300倍、OpenAI社のGPTレベルだとその差は1000倍以上も異なります。
生成AI界隈ではスケール則という非常に有名な概念があり、パラメータ数が多ければ多いほど、学習のためのデータセットのサイズが大きければ大きいほど、計算するためのリソースが多ければ多いほど、モデル自体の性能が増していく、三位一体の法則があります。
出典:”Scaling Laws for Neural Language Models”(Jared Kaplan, et al. @OpenAI, arXiv, 2020.)
大きなモデルは精度が良い反面、動かすこと自体でも必要なリソースがより多く必要というデメリット部分もあるので、インフラ側の検討事項がより増えてくるというのが今後予想されてきます。
オンプレLLMの必要性
生成AIの流行にChatGPTがあり、オンプレで、ローカルで、プライベートなChatbotを利用したいニーズは弊社でもかなり増えてきています。また、ChatGPTの開発元であるOpenAI社が最新のGPT-4o(Omni)をリリースしてからまだ日が浅いですが、その凄まじい人間感は目を見張るものがあります。
業界最高性能なモデルを簡単に、しかも安く使える大変申し分ない代物ではあるのですが、一方で、自社固有のドメインデータや機密データの取り扱いには課題があります。前世代のクラウドAPI利用時には、ユーザー数増加に伴いレスポンスタイムが遅くなったという問題もありました。
【出典】OpenAI、GPT-4が怠け者になってきたという苦情に「修正を検討中」とポスト
ユーザー固有のドメインデータの利用方法の現時点での主流は、
RAG(Retrieval Augmented Generation:検索拡張生成)という仕組みを使い、固有データをあらかじめ参照用データベースとして用意しておき、フロント(RAGシステム)でユーザープロンプトのハンドリングをする際にまずはそのデータベース内にある情報に検索をかけ、その検索結果の情報をもとにモデル(LLM)に問い合わせし回答を生成する流れとなります。
ここで注意が必要となるのが、
RAGシステムからの問い合わせ先であるモデルがクラウド上にホストされる場合、当然ながら固有のデータもクラウドに流れてしまう仕組みとなります。
データの種類や、会社のコンプライアンスにも依存しますが、この部分がネックとなり、最高性能のモデルをクラウドで利用することが必ずしもよいわけではなく、自社固有データ、機密データを活用したLLMの実行にはオンプレミス上でモデルをホストする必要性が出てくるわけです。
オンプレLLMでは、自社固有のデータを利活用できるのはもちろんのこと、占有環境として自由度が高く、高パフォーマンスなプライベートLLMとしてご利用いただけます。
次回はLLMの利活用のすみわけと、開発ステップ、HPEの生成AIオファリングに関してご紹介します。
- ブログへ戻る
- より新しい記事
- より古い記事
- kkuma 場所: HPE Linux技術情報サイトの歩き方~CentOS代替ディストビューション情報について~
- 土井康裕 場所: 篠田の虎の巻「PostgreSQL 15 GA 新機能検証結果」公開!
- MiwaTateoka 場所: Windows Server 2019のCertificate of Authenticity (C...
- 今更感 場所: 【連載】導入前のアドバイス – アレイコントローラー
- OEMer 場所: タイトル: HPE OEM Windows Serverのライセンスに関する質問にすべて回答しましょ...
- いわぶちのりこ 場所: 【連載】次世代ハイパーコンバージド「HPE SimpliVity」を取り巻くエコシステム ー 第3回...
- Yoshimi 場所: ジェフェリー・ムーア氏からのメッセージ - 未訳の新著 "Zone To Win" を解説! (2)...
- Yoshimi 場所: ジェフェリー・ムーア氏からのメッセージ - 未訳の新著 "Zone To Win" を解説! (...
- 三宅祐典 場所: 「HPE Synergy」 発表! ~ (3) この形・・・ ブレードサーバー??