Me gustaría ver si el sistema de archivos hdfs para Hadoop está funcionando correctamente. Sé que jps listas de los demonios que se están ejecutando, pero yo en realidad no sé que demonios a buscar.

Me encontré los siguientes comandos:
$HADOOP_PREFIX/sbin/hadoop-daemon.sh start namenode

$HADOOP_PREFIX/sbin/hadoop-daemon.sh start datanode

$HADOOP_PREFIX/sbin/yarn-daemon.sh start resourcemanager

$HADOOP_PREFIX/sbin/yarn-daemon.sh start nodemanager

Sólo namenode, resourcemanager, y nodemanager apareció cuando entré jps.

Que los demonios se supone estar en ejecución para que hdfs/Hadoop para la función? Además, ¿qué podría hacer para solucionar hdfs si no se está ejecutando?

si usted no está seguro de si se ejecuta o no, y no recuerdo que los demonios se corresponden con el hdfs, usted puede comprobar lo que el hadoop dfs -ls / comando de las salidas

OriginalEl autor user2590144 | 2014-07-07

2 Comentarios

  1. 8

    Utilizar cualquiera de los siguientes métodos para comprobar su deamons estado

    1. JPS comando lista de todos los activos de deamons

    2. la de abajo es la más apropiada

         hadoop dfsadmin -report
      

      Esta sería la lista de abajo de los detalles de los datanodes que es, básicamente, en un sentido su HDFS

    3. gato cualquier archivo disponible en hdfs camino.

    ¿Qué entiende usted por «gato»?
    hdfs -cat <ruta de acceso del archivo>
    sudo -u hadoop hdfs dfsadmin -informe , esto se debe hacer como este para un completo informe.
    hadoop dfsadmin -informe está en desuso, se debe usar «hdfs dfsadmin -informe» en lugar

    OriginalEl autor K S Nidhin

  2. 4

    Así, me pasé dos semanas validar mi setup (que estaba bien) , finalmente encontramos este comando:

    sudo -u hdfs jps
    

    Inicialmente mi simple JPS comando estaba mostrando sólo un proceso, pero Hadoop 2.6 en Ubuntu 14.04 LTS. Yo estaba usando «Sudo» para ejecutar las secuencias de comandos de inicio.

    Aquí es el inicio de que el trabajo con JPS listado de varios procesos:

    sudo su hduser
    /usr/local/hadoop/sbin/start-dfs.sh
    /usr/local/hadoop/sbin/start-yarn.sh
    

    OriginalEl autor tomthumb99

Dejar respuesta

Please enter your comment!
Please enter your name here