RHEL 8にKibana 7.3をインストールしました。Kibanaサービスはアクティブ(実行中)です。
http:// localhost:5601 にカールすると、Kibana server is not ready yet
メッセージが表示されます。 Elasticsearchインスタンスが別のサーバー上にあり、それが私のリクエストに成功して応答しています。私はそれでkibana.ymlを更新しました
elasticsearch.hosts:[" http:// EXTERNAL-IP-ADDRESS-OF-ES:92 "]
私はインターネットからelasticsearchに応答して到達できます:
{
"name" : "ip-172-31-21-240.ec2.internal",
"cluster_name" : "elasticsearch",
"cluster_uuid" : "y4UjlddiQimGRh29TVZoeA",
"version" : {
"number" : "7.3.1",
"build_flavor" : "default",
"build_type" : "rpm",
"build_hash" : "4749ba6",
"build_date" : "2019-08-19T20:19:25.651794Z",
"build_snapshot" : false,
"lucene_version" : "8.1.0",
"minimum_wire_compatibility_version" : "6.8.0",
"minimum_index_compatibility_version" : "6.0.0-beta1"
},
"tagline" : "You Know, for Search"
}
Sudo systemctl status kibana
の結果:
● kibana.service - Kibana
Loaded: loaded (/etc/systemd/system/kibana.service; enabled; vendor preset: disabled)
Active: active (running) since Thu 2019-09-19 12:22:34 UTC; 24min ago
Main PID: 4912 (node)
Tasks: 21 (limit: 4998)
Memory: 368.8M
CGroup: /system.slice/kibana.service
└─4912 /usr/share/kibana/bin/../node/bin/node --no-warnings --max-http-header-size>
Sep 19 12:46:42 ip-172-31-88-39.ec2.internal kibana[4912]: {"type":"log","@timestamp":"2019-0>
Sep 19 12:46:42 ip-172-31-88-39.ec2.internal kibana[4912]: {"type":"log","@timestamp":"2019-0>
Sep 19 12:46:43 ip-172-31-88-39.ec2.internal kibana[4912]: {"type":"log","@timestamp":"2019-0>
Sep 19 12:46:43 ip-172-31-88-39.ec2.internal kibana[4912]: {"type":"log","@timestamp":"2019-0>
Sep 19 12:46:43 ip-172-31-88-39.ec2.internal kibana[4912]: {"type":"log","@timestamp":"2019-0>
Sep 19 12:46:44 ip-172-31-88-39.ec2.internal kibana[4912]: {"type":"log","@timestamp":"2019-0
「sudo journalctl --unit kibana」の結果
Sep 19 06:03:53 ip-172-31-88-39.ec2.internal kibana[1356]: {"type":"log","@timestamp":"2019-09-19T06:03:53Z","tags":["warning","elasticsearch","admin"],"pid":1356,"message":"Unable to revive >
Sep 19 06:03:53 ip-172-31-88-39.ec2.internal kibana[1356]: {"type":"log","@timestamp":"2019-09-19T06:03:53Z","tags":["warning","elasticsearch","admin"],"pid":1356,"message":"No living connect>
Sep 19 06:03:53 ip-172-31-88-39.ec2.internal kibana[1356]: {"type":"log","@timestamp":"2019-09-19T06:03:53Z","tags":["warning","task_manager"],"pid":1356,"message":"PollError No Living connec>
Sep 19 06:03:53 ip-172-31-88-39.ec2.internal kibana[1356]: {"type":"log","@timestamp":"2019-09-19T06:03:53Z","tags":["warning","elasticsearch","admin"],"pid":1356,"message":"Unable to revive >
Sep 19 06:03:53 ip-172-31-88-39.ec2.internal kibana[1356]: {"type":"log","@timestamp":"2019-09-19T06:03:53Z","tags":["warning","elasticsearch","admin"],"pid":1356,"message":"No living connect>
問題がどこにあるかあなたは何か考えがありますか?
これには複数の理由が考えられます。試すことはほとんどありません
.kibana*
インデックスを削除しますこれらが機能しない場合は、kibana.yml
から詳細ログをオンにし、kibanaを再起動して、これの原因である可能性のある詳細情報を取得します。
HTH
エラーはelastic.hosts
設定に関連している可能性があります。次の手順と私のために働いた:
/etc/elasticsearch/elasticsearch.yml
ファイルを開き、次の設定を確認します。#network.Host: localhost
2. /etc/kibana/kibana.yml
ファイルを開き、設定を確認します。
#elasticsearch.hosts: ["http://localhost:9200"]
問題は、kibanaがローカルでelasticsearchにアクセスできないことでした。
この問題を克服するために、両方のサーバーを削除して再作成しました。 ESとKibana 7.4をインストールしました。また、VM ESサーバーのサイズをt1.microからt2.smallに増やしました。すべてうまくいきました。前のESインスタンスでは、インスタンスは時々、それ自体が停止するvm ramが1GBだったため、JVMヒープサイズを制限する必要があり、それが問題全体が発生した理由かもしれません。
おそらくこの質問の解決策ではありません
私の場合、kibanaとelasticsearchのバージョンは互換性がありませんでした
どのようにdockerを使用していたか、両方を再作成したが、同じバージョン(7.5.1)を使用していた