3
tagomoris @tagomoris
@sonots 普段の性能を安定して上げたいなら flush サイズを細かくしたほうがいいのは確かだけど buffer_chunk_limit をいじっちゃうと再送待ちチャンクにまで影響が出るので flush_interval で制御したほうがいい、という話です
tagomoris @tagomoris
だいたい普段から性能かつかつな感じの状況のままで運用してたら、更に通信エラーとかで詰まりが出た後の再送をバースト状にやっちゃうと被害が広がるだけのような気がするが
そのっつ (Naotoshi Seo) @sonots
https://t.co/I97doyEySk で buffer_chunk_limit 大きくして、dummer で大量に流し込むとひどい性能劣化を再現できるはず
tagomoris @tagomoris
@sonots 平常時のflush sizeは flush_interval を短くすることで小さくする(buffer_chunk_limitは関係ない)、そうすればスループット限界近くでの性能劣化は防げるでしょう
そのっつ (Naotoshi Seo) @sonots
捌けなくなった場合に、buffer_chunk_limit が大きいと、性能劣化具合がひどい。という事実が、チューニングの可能性を狭めているな。
そのっつ (Naotoshi Seo) @sonots
2.1.1 でよくなってたりしないかな. rubinius だと大分スムーズに流れるとリピー氏が言っていた気がするけど > 性能劣化
tagomoris @tagomoris
@sonots ちなみに flush_interval はどういう設定になってるんでしょう
そのっつ (Naotoshi Seo) @sonots
このころは try_flush_interval がまだなかった気がする。queued_chunk_flush_interval はあったのかな ...
Sadayuki Furuhashi @frsyuki
多数のホストから1台のサーバにデータを送るとき、データの受信時に結構なCPUを使うようなワークロードで、リトライを起こさずにスループットを上げるのは難しいな。ありがちなのは送信前にサーバにお伺いを立ててサーバが過負荷にならないように制御するか、そもそもpull型にするかかな。
tagomoris @tagomoris
てか、人のことを考えてる場合ではない、自分のコードを書かなければ
たろー @annin_taro_tofu
buffered_chunk_limitが大きい設定で、捌けなくなる→各チャンクサイズが大きくなる→送信するコスト、送信ミスの可能性が高くなる→さらに掃けなくなる っていう悪循環ですかね...。
そのっつ (Naotoshi Seo) @sonots
吐き出す chunk の数については、queued_chunk_flush_interval を 0.001 にしても問題なさそう、という見解だったので、それでコントロールする、でいいか。まず試してからだな。

コメント

ログインして広告を非表示にする
ログインして広告を非表示にする