説明されているAzure Cats&Dogsチュートリアル here を実行しましたが、AKSでアプリが起動される最後の手順でエラーが発生します。 Kubernetesはポッドが不十分であると報告していますが、これがなぜなのかはわかりません。私は数週間前にこの同じチュートリアルを問題なく実行しました。
$ kubectl apply -f Azure-vote-all-in-one-redis.yaml
deployment.apps/Azure-vote-back created
service/Azure-vote-back created
deployment.apps/Azure-vote-front created
service/Azure-vote-front created
$ kubectl get pods
NAME READY STATUS RESTARTS AGE
Azure-vote-back-655476c7f7-mntrt 0/1 Pending 0 6s
Azure-vote-front-7c7d7f6778-mvflj 0/1 Pending 0 6s
$ kubectl get events
LAST SEEN TYPE REASON KIND MESSAGE
3m36s Warning FailedScheduling Pod 0/1 nodes are available: 1 Insufficient pods.
84s Warning FailedScheduling Pod 0/1 nodes are available: 1 Insufficient pods.
70s Warning FailedScheduling Pod skip schedule deleting pod: default/Azure-vote-back-655476c7f7-l5j28
9s Warning FailedScheduling Pod 0/1 nodes are available: 1 Insufficient pods.
53m Normal SuccessfulCreate ReplicaSet Created pod: Azure-vote-back-655476c7f7-kjld6
99s Normal SuccessfulCreate ReplicaSet Created pod: Azure-vote-back-655476c7f7-l5j28
24s Normal SuccessfulCreate ReplicaSet Created pod: Azure-vote-back-655476c7f7-mntrt
53m Normal ScalingReplicaSet Deployment Scaled up replica set Azure-vote-back-655476c7f7 to 1
99s Normal ScalingReplicaSet Deployment Scaled up replica set Azure-vote-back-655476c7f7 to 1
24s Normal ScalingReplicaSet Deployment Scaled up replica set Azure-vote-back-655476c7f7 to 1
9s Warning FailedScheduling Pod 0/1 nodes are available: 1 Insufficient pods.
3m36s Warning FailedScheduling Pod 0/1 nodes are available: 1 Insufficient pods.
53m Normal SuccessfulCreate ReplicaSet Created pod: Azure-vote-front-7c7d7f6778-rmbqb
24s Normal SuccessfulCreate ReplicaSet Created pod: Azure-vote-front-7c7d7f6778-mvflj
53m Normal ScalingReplicaSet Deployment Scaled up replica set Azure-vote-front-7c7d7f6778 to 1
53m Normal EnsuringLoadBalancer Service Ensuring load balancer
52m Normal EnsuredLoadBalancer Service Ensured load balancer
46s Normal DeletingLoadBalancer Service Deleting load balancer
24s Normal ScalingReplicaSet Deployment Scaled up replica set Azure-vote-front-7c7d7f6778 to 1
$ kubectl get nodes
NAME STATUS ROLES AGE VERSION
aks-nodepool1-27217108-0 Ready agent 7d4h v1.9.9
それが変わったと考えることができる唯一のことは、私が現在実行している他の(より大きな)クラスターも持っていることであり、このCats&Dogsチュートリアルをもう一度行った主な理由は、他のクラスターで今日同じ問題に遭遇したためです。これはAzureアカウントのリソース制限の問題ですか?
Update 10-20/3:15 PST:これらの3つのクラスターはすべて、異なるリソースで作成されたにもかかわらず、同じノードプールを使用していることを示していますグループ。また、gem2-clusterの「get-credentials」呼び出しがエラーを報告する方法にも注意してください。以前、gem2-clusterと呼ばれるクラスターがありましたが、同じ名前を使用して削除して再作成しました(実際には、woleリソースグループを削除しました)。これを行うための正しいプロセスは何ですか?
$ az aks get-credentials --name gem1-cluster --resource-group gem1-rg
Merged "gem1-cluster" as current context in /home/psteele/.kube/config
$ kubectl get nodes -n gem1
NAME STATUS ROLES AGE VERSION
aks-nodepool1-27217108-0 Ready agent 3h26m v1.9.11
$ az aks get-credentials --name gem2-cluster --resource-group gem2-rg
A different object named gem2-cluster already exists in clusters
$ az aks get-credentials --name gem3-cluster --resource-group gem3-rg
Merged "gem3-cluster" as current context in /home/psteele/.kube/config
$ kubectl get nodes -n gem1
NAME STATUS ROLES AGE VERSION
aks-nodepool1-14202150-0 Ready agent 26m v1.9.11
$ kubectl get nodes -n gem2
NAME STATUS ROLES AGE VERSION
aks-nodepool1-14202150-0 Ready agent 26m v1.9.11
$ kubectl get nodes -n gem3
NAME STATUS ROLES AGE VERSION
aks-nodepool1-14202150-0 Ready agent 26m v1.9.11
サブスクリプションのコア制限に達していないことを確認してください。
az vm list-usage --location "<location>" -o table
より多くの割り当てをリクエストできる場合は、 https://docs.Microsoft.com/en-us/Azure/azure-supportability/resource-manager-core-quotas-request