Soy nuevo en todas las cosas Kubernetes así que todavía tenemos mucho que aprender.

Han creado dos nodos Kubernetes y del clúster de dos nodos (maestro y de los trabajadores) están dispuestos a hacer el trabajo que es buena:

[[email protected] nginx-test]# kubectl get nodes
NAME      STATUS    ROLES     AGE       VERSION
k8s-dp1   Ready     master    2h        v1.9.1
k8s-dp2   Ready     <none>    2h        v1.9.1

También, todos los Kubernetes Vainas se ven bien:

[[email protected] nginx-test]# kubectl get pods --all-namespaces
NAMESPACE     NAME                              READY     STATUS    RESTARTS   AGE
kube-system   etcd-k8s-dp1                      1/1       Running   0          2h
kube-system   kube-apiserver-k8s-dp1            1/1       Running   0          2h
kube-system   kube-controller-manager-k8s-dp1   1/1       Running   0          2h
kube-system   kube-dns-86cc76f8d-9jh2w          3/3       Running   0          2h
kube-system   kube-proxy-65mtx                  1/1       Running   1          2h
kube-system   kube-proxy-wkkdm                  1/1       Running   0          2h
kube-system   kube-scheduler-k8s-dp1            1/1       Running   0          2h
kube-system   weave-net-6sbbn                   2/2       Running   0          2h
kube-system   weave-net-hdv9b                   2/2       Running   3          2h

Sin embargo, si intento crear una nueva implementación en el clúster, la implementación se ha creado, pero su pod falla en el funcionamiento apropiado del estado. por ejemplo,

[[email protected] nginx-test]# kubectl apply -f https://k8s.io/docs/tasks/run-application/deployment.yaml
deployment "nginx-deployment" created

[[email protected] nginx-test]# kubectl get pods --all-namespaces
NAMESPACE     NAME                                READY     STATUS              RESTARTS   AGE
default       nginx-deployment-569477d6d8-f42pz   0/1       ContainerCreating   0          5s
default       nginx-deployment-569477d6d8-spjqk   0/1       ContainerCreating   0          5s
kube-system   etcd-k8s-dp1                        1/1       Running             0          3h
kube-system   kube-apiserver-k8s-dp1              1/1       Running             0          3h
kube-system   kube-controller-manager-k8s-dp1     1/1       Running             0          3h
kube-system   kube-dns-86cc76f8d-9jh2w            3/3       Running             0          3h
kube-system   kube-proxy-65mtx                    1/1       Running             1          2h
kube-system   kube-proxy-wkkdm                    1/1       Running             0          3h
kube-system   kube-scheduler-k8s-dp1              1/1       Running             0          3h
kube-system   weave-net-6sbbn                     2/2       Running             0          2h
kube-system   weave-net-hdv9b                     2/2       Running             3          2h

No estoy seguro de cómo averiguar cuál es el problema pero si yo por ejemplo hago un kubectl get ev, puedo ver la siguiente sospecha de evento:

<invalid>   <invalid>    1         nginx-deployment-569477d6d8-f42pz.15087c66386edf5d   Pod
             Warning   FailedCreatePodSandBox   kubelet, k8s-dp2        Failed create pod sandbox.

Pero no sé a dónde ir desde aquí. También puedo ver que el nginx ventana acoplable de la imagen en sí no aparece en docker images.

¿Cómo puedo averiguar más sobre el problema? Me estoy perdiendo algo fundamental en la kubernetes de configuración?

— NUEVA INFO —

Para información de fondo en el caso de que ayuda a…

Kubernetes los nodos ejecutan en CentOS 7 Vm alojado en Windows 10 hyper-v.

— NUEVA INFO —

Ejecución kubectl describe pods muestra la siguiente Advertencia:

Warning  NetworkNotReady         1m                             kubelet, k8s-dp2  network is not ready: [runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized]

— NUEVA INFO —

Apaga el Hyper-v de máquinas virtuales en ejecución Kubernetes por la noche después de mi día de trabajo había terminado y que en mi regreso a la oficina esta mañana he encendido el Kubernetes VMs una vez más para continuar y, durante unos 15 minutos, el comando:

kubectl get pods --all-namespaces se sigue mostrando ContainerCreating para aquellos nginx vainas de la misma como ayer, pero, por ahora, el comando muestra todas las vainas como Running incluyendo el nginx vainas… es decir, el problema resuelto después de un reinicio del maestro y del trabajador nodo VMs.

Yo ahora hice otro reinicie de nuevo y todas las vainas están mostrando como la Ejecución de lo que es bueno.

4 Comentarios

  1. 4

    Hacer un reinicio completo de ambas máquinas virtuales que ejecutan el Kubernetes nodo maestro y Kubernetes trabajador nodo consiguió que las Vainas presentan como Running (NOTA: Después del primer reinicio, se tomó unos 15-20 minutos para que las vainas en cuestión para ir a un Running estado y, en el reinicio posterior, las vainas en cuestión entró en Running estado relativamente mucho más rápido… 3-5 minutos).

    • Trabajó para mí. Gracias!
  2. 4

    Utilizando kubectl describe pod iba a ver todos los eventos. En algunos casos, la implementación puede ser aún tirando de la ventana acoplable imágenes de forma remota, por lo que la situación sería aún se muestra como ContainerCreating

  3. 3

    Uso kubectl describe pod <name> para ver más información

    • Añadido de salida de su sugirió que muestra cni config uninitialized de Advertencia. Ver post de edición para más detalles.
    • El CNI advertencia indica que los internos de la red de clúster no está funcionando correctamente. Dependiendo de lo que hayas escogido para la red de clúster y donde reside, puede haber un enrutamiento de conflicto que no está permitiendo que los envases que se sacó y comenzó. Asegúrese de que usted no tiene un conflicto de redes. Usted puede encontrar más sugerencias de depuración en tejido.obras/docs/net/última/kubernetes/kube-addon

Dejar respuesta

Please enter your comment!
Please enter your name here