- Community Home
- >
- HPE Community, Japan
- >
- HP-UX
- >
- System Management
- >
- 11iv3での、バッファキャッシュの制御について
system management
1753563
メンバー
5836
オンライン
108796
解決策
フォーラム
カテゴリ
Company
Local Language
戻る
フォーラム
ディスカッションボード
フォーラム
- Data Protection and Retention
- Entry Storage Systems
- Legacy
- Midrange and Enterprise Storage
- Storage Networking
- HPE Nimble Storage
ディスカッションボード
ディスカッションボード
ディスカッションボード
フォーラム
ディスカッションボード
戻る
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
- BladeSystem Infrastructure and Application Solutions
- Appliance Servers
- Alpha Servers
- BackOffice Products
- Internet Products
- HPE 9000 and HPE e3000 Servers
- Networking
- Netservers
- Secure OS Software for Linux
- Server Management (Insight Manager 7)
- Windows Server 2003
- Operating System - Tru64 Unix
- ProLiant Deployment and Provisioning
- Linux-Based Community / Regional
- Microsoft System Center Integration
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
ブログ
情報
コミュニティ言語
言語
フォーラム
ブログ
トピックオプション
- RSS フィードを購読する
- トピックを新着としてマーク
- トピックを既読としてマーク
- このトピックを現在のユーザーにフロートします
- ブックマーク
- 購読
- 印刷用ページ
- 新着としてマーク
- ブックマーク
- 購読
- ミュート
- RSS フィードを購読する
- ハイライト
- 印刷
- 不適切なコンテンツを報告
10-04-2007 09:33 PM
10-04-2007 09:33 PM
11iv3での、バッファキャッシュの制御について
今回初めて質問させていただきます。
よろしくお願いいたします。
11iv3での、バッファキャッシュの制御について御相談したいと思います。
【状況】
・とある大量データ処理の検証で、バッファキャッシュを少なくした状態を実現したいと考えております。
・また検証実施時に、CPUの%wioが高く、DiskのBusyも定常的に発生しているにも関わらず、sar -bで表示されるbread/sがほぼ0で推移している状態となっております。
【質問事項】
(1)11iv2ではdbc_max_pctとdbc_min_pctを設定することでバッファキャッシュサイズの制御をできたと思いますが、11iv3ではvxfs_bc_bufhwmを指定することで同様の制御ができると考えてあっていますでしょうか。
(2)vxfs_bc_bufhwmを指定することで、SAM上のfilecache_maxで表示される値を変更できるかと思ったのですが、あっていますでしょうか。
(3)また上記でバッファサイズを変更することで、sar -bで表示されるbread/sの値が変わる可能性が高いと考えておりますが、あっていますでしょうか。
(4)11iv3では、bread/sの値の意味合いがv2と異なっている、という可能性はあるでしょうか。
以上、お分かりになる方いらっしゃいましたらお教え頂ければ幸いです。どうぞよろしくお願いいたします。
よろしくお願いいたします。
11iv3での、バッファキャッシュの制御について御相談したいと思います。
【状況】
・とある大量データ処理の検証で、バッファキャッシュを少なくした状態を実現したいと考えております。
・また検証実施時に、CPUの%wioが高く、DiskのBusyも定常的に発生しているにも関わらず、sar -bで表示されるbread/sがほぼ0で推移している状態となっております。
【質問事項】
(1)11iv2ではdbc_max_pctとdbc_min_pctを設定することでバッファキャッシュサイズの制御をできたと思いますが、11iv3ではvxfs_bc_bufhwmを指定することで同様の制御ができると考えてあっていますでしょうか。
(2)vxfs_bc_bufhwmを指定することで、SAM上のfilecache_maxで表示される値を変更できるかと思ったのですが、あっていますでしょうか。
(3)また上記でバッファサイズを変更することで、sar -bで表示されるbread/sの値が変わる可能性が高いと考えておりますが、あっていますでしょうか。
(4)11iv3では、bread/sの値の意味合いがv2と異なっている、という可能性はあるでしょうか。
以上、お分かりになる方いらっしゃいましたらお教え頂ければ幸いです。どうぞよろしくお願いいたします。
2件の返信2
- 新着としてマーク
- ブックマーク
- 購読
- ミュート
- RSS フィードを購読する
- ハイライト
- 印刷
- 不適切なコンテンツを報告
10-05-2007 09:40 AM
10-05-2007 09:40 AM
11iv3での、バッファキャッシュの制御について
> (1)11iv2ではdbc_max_pctとdbc_min_pctを設定することでバッファキャッシュサイズの制御をできたと思いますが、11iv3ではvxfs_bc_bufhwmを指定することで同様の制御ができると考えてあっていますでしょうか。
あってません。
> (2)vxfs_bc_bufhwmを指定することで、SAM上のfilecache_maxで表示される値を変更できるかと思ったのですが、あっていますでしょうか。
あってません。
vxfs_bc_bufhwm と filecache_max に関連性はありません。
vxfs_bc_bufhwm は VxFS のメタデータ(inode 等)用のバッファキャッシュです。VxFS 3.5 から、VxFS はメタデータ用の専用バッファキャッシュを別にもつようになりました。
filecache_max は、ユーザデータブロックを含むバッファキャッシュの最大値を定義するもので、11iv2 までの dbc_max_pct と同等のものと考えてもらってよいと思います。
11iv3 から所謂バッファキャッシュはページキャッシュと統合されたため(UFC)、dbc_* というチューナブルがなくなり、filecache_* というパラメータに変わりました。
> (3)また上記でバッファサイズを変更することで、sar -bで表示されるbread/sの値が変わる可能性が高いと考えておりますが、あっていますでしょうか。
可能性はあると思いますが、そもそも bread の値が小さくて lread の値が大きければ、キャッシュヒットしてるはずです。ヒット率はどうなんでしょうか?
キャッシュヒットしてるのにディスクが busy なのであれば、そもそも、ファイルシステム IO ではなく、raw IO や page IO が発生しているということはありませんか?physical な read/write や paging の read/write も確認されてみると良いと思います。
また、wio% や busy が高くなる理由としては、IO 量の他にディスクの応答が遅いことも考えられます。avgserv を確認することも勧めます。
> (4)11iv3では、bread/sの値の意味合いがv2と異なっている、という可能性はあるでしょうか。
そういう記載は特にリリースノートに見られませんが、バッファキャッシュの実装が UFC に変わりましたから、bread の計測方法にも変更はあったと思いますので、不具合がある可能性も否定できないと思います。
あってません。
> (2)vxfs_bc_bufhwmを指定することで、SAM上のfilecache_maxで表示される値を変更できるかと思ったのですが、あっていますでしょうか。
あってません。
vxfs_bc_bufhwm と filecache_max に関連性はありません。
vxfs_bc_bufhwm は VxFS のメタデータ(inode 等)用のバッファキャッシュです。VxFS 3.5 から、VxFS はメタデータ用の専用バッファキャッシュを別にもつようになりました。
filecache_max は、ユーザデータブロックを含むバッファキャッシュの最大値を定義するもので、11iv2 までの dbc_max_pct と同等のものと考えてもらってよいと思います。
11iv3 から所謂バッファキャッシュはページキャッシュと統合されたため(UFC)、dbc_* というチューナブルがなくなり、filecache_* というパラメータに変わりました。
> (3)また上記でバッファサイズを変更することで、sar -bで表示されるbread/sの値が変わる可能性が高いと考えておりますが、あっていますでしょうか。
可能性はあると思いますが、そもそも bread の値が小さくて lread の値が大きければ、キャッシュヒットしてるはずです。ヒット率はどうなんでしょうか?
キャッシュヒットしてるのにディスクが busy なのであれば、そもそも、ファイルシステム IO ではなく、raw IO や page IO が発生しているということはありませんか?physical な read/write や paging の read/write も確認されてみると良いと思います。
また、wio% や busy が高くなる理由としては、IO 量の他にディスクの応答が遅いことも考えられます。avgserv を確認することも勧めます。
> (4)11iv3では、bread/sの値の意味合いがv2と異なっている、という可能性はあるでしょうか。
そういう記載は特にリリースノートに見られませんが、バッファキャッシュの実装が UFC に変わりましたから、bread の計測方法にも変更はあったと思いますので、不具合がある可能性も否定できないと思います。
- 新着としてマーク
- ブックマーク
- 購読
- ミュート
- RSS フィードを購読する
- ハイライト
- 印刷
- 不適切なコンテンツを報告
10-05-2007 03:33 PM
10-05-2007 03:33 PM
11iv3での、バッファキャッシュの制御について
ご返答ありがとうございました。
大変参考になりました。
また確認不足の状態での質問で申し訳ありませんでした。
頂いたご指摘を元に、filecache_max を設定した状態での試行、および、
discovered_direct_iosz のデフォルト値を超えたI/O要求が発生しているかの確認、などをしたいと思います。
なお御指摘いただいた事項を確認いたしますと、
・キャッシュヒット率はほぼ100%
・physicalなread/writeは定常的に発生
・pagingはほぼ0の状態でした。
またI/O対象のストレージは、4GbF/C接続で約6個のディスクでのRAID構成のため、基本的には応答速度は十分と考えております。
大変参考になりました。
また確認不足の状態での質問で申し訳ありませんでした。
頂いたご指摘を元に、filecache_max を設定した状態での試行、および、
discovered_direct_iosz のデフォルト値を超えたI/O要求が発生しているかの確認、などをしたいと思います。
なお御指摘いただいた事項を確認いたしますと、
・キャッシュヒット率はほぼ100%
・physicalなread/writeは定常的に発生
・pagingはほぼ0の状態でした。
またI/O対象のストレージは、4GbF/C接続で約6個のディスクでのRAID構成のため、基本的には応答速度は十分と考えております。
上記の意見は、Hewlett Packard Enterpriseではなく、著者の個人的な意見です。 このサイトを使用することで、利用規約と参加規約に同意したことになります 。
© Copyright 2024 Hewlett Packard Enterprise Development LP