自分のところでは、社内の様々なログをfluentdで集めているのだけど、それらをElasticsearchに入れて、Kibanaで見えるようした話を書いてみる.
Fluentd, Elasticsearch, Kibanaな組み合わせは既に多くの人が使ってるし、ブログ等の記事も沢山ある. けど、いくつか 引っ掛かった点などもあるので、それらを書き留めて置こうと思う.
要件
- fluentdでストリームで集めてるログを、リアルタイムに近い鮮度でKibanaで見たい.
- 見たい、というのは検索したり、集計・可視化したり、ということ
- Kibanaでは短期(2日とか)のログが見えれば良い
- 規模感的には、ログの種類(=fluentdのtag数)が200くらい、流量はピークで2万メッセージ/秒くらい.
- が、実際には最も流量の多いログは除いたので、この半分〜3分の1くらいの流量
- 10shard/index にしてあるので、2日分だと4000 shardくらいになる. これはかなり多いと思う
- ログの種類が増えたときも、人手をかけずにKibanaで見えるようになって欲しい
構成
fluentd→Kafka→kafka-fluentd-consumer→fluentd→Elasticsearch
な感じ. Elasticsearchへの投入が詰まる、的な話はよくあるけど、Kafkaを挟んでいるのでfluentdの他の経路に影響が出ることは無いようになっている.
経験した問題と対応
fluentdからの投入タイムアウト
これに出会ったのは大分前なのだけど、流量が多い場合にバッファのサイズが大きくなると、Elasticsearchへの投入でタイムアウトが発生したりした.
1
|
|
対応として、fluent-plugin-elasticsearchの設定でrequest_timeout
を長めに設定している.
Size of the emitted data exceeds buffer_chunk_limit
kafka-fluentd-consumer からログを受けているfluentdで、以下のようなwarningが多発した.
1 2 3 4 |
|
fluentdがin_forwardで受け取ったchunkのサイズが、受け側fluentdでのbuffer_chunk_limit(デフォルト8MB)より大きいよ、という メッセージ.
kafka-fluentd-consumerが大きいchunkで送信していたと思われる. 当時はこれを制御する術は無かったのだけど、issueをあげたら 対応してもらえた. このためにkafka-fluentd-consumerが内部で使っているFluencyにも、改修を入れてくれた様子. 有り難い.
https://github.com/treasure-data/kafka-fluentd-consumer/issues/15
こんな感じで、Fluencyのバッファ周りのパラメータを指定できるようになったので、fluentd.client.buffer.chunk.retention.bytes
がfluentdのbuffer_chunk_limitより小さくなるようにした.
あとは、Elasticsearchに投入するfluentdプロセスの数を多めにして、一つ一つの負荷が大きくならないようにしている.
1 2 3 |
|
実際には、この設定を入れる前の段階で(なぜか)warningが消えていたので、明確にこれの効果があったのかは不明. だけど、その後ログの流量を大分増やしたりしても 出ていないので、多分効果はあったのだろう.
日付が変わったタイミングでElasticsearchが固まる問題
時系列データなので、indexはsomelog-YYYY.MM.DD
のような形で、日毎に分けるようにしている. 一部のログだけを入れていた時は特に問題は無かったのだけど、
全ての(大体200種類の)ログを入れるようにした所、日付が変わった際にElasticsearchへのindexingが固まる、という事象に出会った.
Elasticsearchのログを見ると、以下のようなログが大量に発生している.
1 2 3 4 5 |
|
これについては、Elasticsearchのフォーラムで質問をしてみた. https://discuss.elastic.co/t/timeout-exception-with-many-time-based-indices-after-00-00/63340/1
mapping等の情報はcluster stateと呼ばれるメタデータで管理されていて、これの更新はシングルスレッドになっている. dynamic mappingを使っている場合、 新規indexの作成時に新たなmappingの作成も発生し、indexの数が多い場合は、これが大量に発生するために固まったような状態になるのだろう、ということ.
対策として、ここで教えてもらったように、翌日分のindexを事前に作成しておくようにした.
フィールド名にドットが含まれている場合の問題
色々なログが入って来た結果、フィールド名にドットが含まれているものがあり、以下のようなエラーが発生
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 |
|
ドットを含むフィールド名の扱いはバージョンによって違っていて、1.xでは可能だったが、2.xでは不可になった. https://www.elastic.co/guide/en/elasticsearch/reference/2.0/breaking_20_mapping_changes.html#_field_names_may_not_contain_dots
その後、2.4以降では起動時のオプションに-Dmapper.allow_dots_in_name=true
を付けると、ドットを含むフィールド名も入るようになった.
https://www.elastic.co/guide/en/elasticsearch/reference/2.4/dots-in-names.html
そして、5.0以降では再びドットを含むフィールドがOKになった. 今使っているElasticsearchは2.4.0なので、オプションで解決することもできたが、 開発者がドットを含まない形にログの形式を変更してくれることになった.
Kibanaでのindex pattern作成が面倒
kafka-fluentd-consumerは、Kafkaから読み込むtopicを正規表現のパターンで指定することができて、fluentd tag=topicが増えた場合は自動的に追随してくれる. なので、ログの種類が増えてもElasticsearchまでは自動的に格納される.
が、Kibanaで見るためにはindex patternの設定が必要になる. これを毎回やるのは面倒なので、どうにかしたい.
同じような要望はあって、この操作をAPIでできるようにして欲しい、というissueが存在している. https://github.com/elastic/kibana/issues/5199
結構長く存在するissueだが、対応されてKibana5ではできるようになるらしい.
が、Kibana5はつい先日GAが出たばかり. 使っているのはまだKibana4だ. Kibana4では、index patternを始めKibana上で作ったオブジェクトの定義は、.kibanaというindexに格納されているので、 これを自分で作る方針にする.
.kibanaに格納されているindex patternの定義は、例えばこんな感じ.
1 2 3 4 5 6 7 8 9 10 11 12 |
|
fieldsの中身がちょっと面倒. 基本的には、既存のindexのmappingを取得し、Kibanaのソースコードを参考にしながら定義を作る.
https://github.com/elastic/kibana/blob/4.6/src/ui/public/index_patterns/_map_field.js https://github.com/elastic/kibana/blob/4.6/src/ui/public/index_patterns/_cast_mapping_type.js
例えば、indexed
フィールドは、mappingの中のindex
フィールドが存在しない、またはno
のときのみfalse
として、その他の場合はtrue
にする. とか、ElasticsaerchとKibanaでは型が違うので、long→numberみたいに変換する、とか.
これも、日次のバッチで回すようにした
まとめ
- こんな感じで様々なログを、Elasticsearch+Kibanaで見ることができるようになった.
- fluentd→Elasticsearchについては、以下の部分がキャパシティ的に問題になりやすい印象
- fluentd: 流量が多いと普通にCPUが上がって詰まる. 対策として、プロセスを増やして負荷分散する
- Elasticsearch: 流量よりは、index数(shard数)が増えることに対して注意がいる. 流量はスケールアウトで対応できるが、cluster state管理の部分はスケールしない. 今回は、日付が切り替わった際の翌日分index作成で問題がおきたので、事前にindexを作成することで対応した. できるだけ、index数は多くなりすぎないように設計した方が良いと思う.