HPE Blog, Japan
1767284 メンバー
4736 オンライン
108960 解決策
新規ポスト
AI_Japan

【HPE AI Japan】生成AIの市場動向とオンプレLLMの必要性

こんにちは、HPEでインフラ周りのプリセールスをしている片山です。

昨今の生成AIブームに追随して、オンプレLLM(プライベートLLM)の要望もちらほら聞くようになってきました。HPEでも従来同様の伝統的なAITraditional AI)へのアプローチに加えて、生成AIGenerative AI)へのアプローチも整備しており、製品、ソリューションの話だけでなく、皆様に役立つ情報も発信させていただこうと考えておりますので、ご期待ください。

 

生成AI市場の需要(Global、日本)と従来のAITraditional AI)との違い

電子情報技術産業協会JEITA様の報道資料を抜粋させていただくと、Global、日本とも2023年から7年間年平均約50%成長という予想がされています。

pic01. 生成AIの市場動向pic01. 生成AIの市場動向

出典:一般社団法人 電子情報技術産業協会JEITA 報道資料(2023/12/21

ここ数年、期待度が高い生成AIの領域について詳しく見ていきましょう。

pic02.png

 

生成AIGenerative AI)はコンテンツを生成することから派生したユースケースに適しており、

不良品検知(分類)や、株価予測(時系列予測)、市場分析(クラスタリング)などの従来からあるAITraditional AI)と区別されることが多くなってきており、ユースケースによってどちらが適しているか選択し使い分ける必要がでてきました。

また同じユースケースでも、例えばカスタマーサポート用アシスタントとして活躍するチャットボットのようなケースでは、必ずしも生成AIが当てはまるわけではなく、まるで人間のような応答レベルが求められるケースには、用意したQ&A集の範囲内しか答えられない(逆に答えないようにする制御する)ようなルールベースを用いた従来のAIが適しています。

 

“頭の良さの度合い”および“複雑な表現を実行可能な度合い”を示すパラメータ数を比較すると、

従来のAIの代表格である画像認識分野で有名なResNet50v2だと約25.6MVGG19だと約143.7MMillion)、

一方、生成AIの代表格である、Meta社のOSSであるLlama-2Llama-3だと小さいものでも約78Bbillion)にもなり、パラメータ数は従来のAIの約50倍~300倍、OpenAI社のGPTレベルだとその差は1000倍以上も異なります。

 

生成AI界隈ではスケール則という非常に有名な概念があり、パラメータ数が多ければ多いほど、学習のためのデータセットのサイズが大きければ大きいほど、計算するためのリソースが多ければ多いほど、モデル自体の性能が増していく、三位一体の法則があります。pic03.png

 出典:”Scaling Laws for Neural Language Models”(Jared Kaplan, et al. @OpenAI, arXiv, 2020.)

大きなモデルは精度が良い反面、動かすこと自体でも必要なリソースがより多く必要というデメリット部分もあるので、インフラ側の検討事項がより増えてくるというのが今後予想されてきます。

pic04.png

 

オンプレLLMの必要性

生成AIの流行にChatGPTがあり、オンプレで、ローカルで、プライベートなChatbotを利用したいニーズは弊社でもかなり増えてきています。また、ChatGPTの開発元であるOpenAI社が最新のGPT-4o(Omni)をリリースしてからまだ日が浅いですが、その凄まじい人間感は目を見張るものがあります。pic05.png

業界最高性能なモデルを簡単に、しかも安く使える大変申し分ない代物ではあるのですが、一方で、自社固有のドメインデータや機密データの取り扱いには課題があります。前世代のクラウドAPI利用時には、ユーザー数増加に伴いレスポンスタイムが遅くなったという問題もありました。

【出典】OpenAI、GPT-4が怠け者になってきたという苦情に「修正を検討中」とポスト

 

ユーザー固有のドメインデータの利用方法の現時点での主流は、

RAG(Retrieval Augmented Generation:検索拡張生成)という仕組みを使い、固有データをあらかじめ参照用データベースとして用意しておき、フロント(RAGシステム)でユーザープロンプトのハンドリングをする際にまずはそのデータベース内にある情報に検索をかけ、その検索結果の情報をもとにモデル(LLM)に問い合わせし回答を生成する流れとなります。

ここで注意が必要となるのが、

pic06.png

RAGシステムからの問い合わせ先であるモデルがクラウド上にホストされる場合、当然ながら固有のデータもクラウドに流れてしまう仕組みとなります。

データの種類や、会社のコンプライアンスにも依存しますが、この部分がネックとなり、最高性能のモデルをクラウドで利用することが必ずしもよいわけではなく、自社固有データ、機密データを活用したLLMの実行にはオンプレミス上でモデルをホストする必要性が出てくるわけです。

pic07_resize.png

オンプレLLMでは、自社固有のデータを利活用できるのはもちろんのこと、占有環境として自由度が高く、高パフォーマンスなプライベートLLMとしてご利用いただけます。

次回はLLMの利活用のすみわけと、開発ステップ、HPEの生成AIオファリングに関してご紹介します。

0 感謝
作者について

AI_Japan