私は、グーグルコンテナーエンジンに単一ノードのkubernetesクラスターを配置して遊んでいます。
今度は、私がホストする小さな個人用Webサイトが数分間オフラインになりました。コンテナーのログを表示すると、最近完了した通常の起動シーケンスが表示されるので、コンテナーが死んだ(または強制終了された)と想定して再起動しました。
これがどのようにしてなぜ起こっているのかをどのように理解できますか?
コンテナーが予期せず開始/停止したときにアラートを受け取る方法はありますか?
以下を使用して、コンテナの最後の再起動ログを表示できます。
kubectlログpodname -c containername --previous
Sreekanthによって説明されているように、kubectl get podsは再起動の数を表示するはずですが、
kubectl describe pod podname
また、ポッドのライフサイクルイベントについて、kubeletからapiserverに送信されたイベントが表示されます。
/ dev/termination-logに最終メッセージを書き込むこともできます。これは the docs で説明されているように表示されます。
前の回答に加えて、エラーを見つけるのに役立つ別のコマンドは次のとおりです。
kubectl get event [--namespace=my-namespace]
ポッド、ジョブ、ノードからのイベントもリストされます