Sé que esto se ha preguntado antes pero no he podido averiguar la solución. Estoy recibiendo el siguiente mensaje de error cuando estoy tratando de ejecutar hdfs name node -format:

No se pudo encontrar o carga principal de la clase org.apache.hadoop.hdfs.servidor.namenode.Namenode

He seguido las instrucciones de este sitio web a instalar en mi centos máquina. La única diferencia es que he instalado el uso de raíz en lugar de hadoopuser como se menciona en el enlace.

Bashrc

# User specific aliases and functions

export JAVA_HOME=/usr/lib/jvm/jre-1.7.0-openjdk.x86_64/
export HADOOP_INSTALL=/usr/local/hadoop
export HADOOP_MAPRED_HOME=$HADOOP_INSTALL
export HADOOP_COMMON_HOME=$HADOOP_INSTALL
export HADOOP_HDFS_HOME=$HADOOP_INSTALL
export YARN_HOME=$HADOOP_INSTALL
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_INSTALL/lib/native
export PATH=$PATH:$HADOOP_INSTALL/sbin
export PATH=$PATH:$HADOOP_INSTALL/bin

hadoop-env.sh

export JAVA_HOME=/usr/lib/jvm/jre-1.7.0-openjdk.x86_64/

Mapred

<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>

Yarn-site.xml

<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
</property>

core-site.xml

<property>
    <name>fs.default.name</name>
    <value>hdfs://localhost:9000</value>
</property>

hdfs-site.xml

<property>
    <name>dfs.replication</name>
    <value>1</value>
</property>

<property>
    <name>dfs.name.dir</name>
    <value>file:///home/hadoopspace/hdfs/namenode</value>
</property>

<property>
    <name>dfs.data.dir</name>
    <value>file:///home/hadoopspace/hdfs/datanode</value>
</property>

OriginalEl autor Santhosh | 2014-07-13

12 Comentarios

  1. 12

    Para aquellos que todavía tiene problemas, necesita exportar la HADOOP_PREFIX variable de entorno.

    Agregue la siguiente línea a su ~/.bashrc de archivo:

    export HADOOP_PREFIX=/path_to_hadoop_location
    
    # for example:
    # export HADOOP_PREFIX=/home/mike/hadoop-2.7.1
    

    A continuación, hacer . ~/.bashrc en su terminal y probar de nuevo, esto solucionar el error.

    Hay potencial de otras causas. Esto no se soluciona mi problema, que es el mismo error, hadoop-2.6.3.
    Esto no resuelve el problema.
    usted debe dar más detalles, tales como: la versión local del directorio de instalación, sistema operativo, etc.

    OriginalEl autor Mike S

  2. 12

    Gracias dcsesq.

    brew instalado hadoop 2.6.0 en Mac OS 10.9.5 (maverick)

    Agregar el siguiente env variables .perfil ~/.bash_profile

    export HADOOP_HOME=/usr/local/Cellar/hadoop/2.6.0
    export HADOOP_PREFIX=$HADOOP_HOME/libexec
    export HADOOP_MAPRED_HOME=$HADOOP_PREFIX
    export HADOOP_COMMON_HOME=$HADOOP_PREFIX
    export HADOOP_HDFS_HOME=$HADOOP_PREFIX
    export YARN_HOME=$HADOOP_PREFIX
    

    Origen de la .archivo de perfil de

    source ~/.bash_profile
    

    Ejecutar namenode

    hdfs namenode -format
    

    Empezó el Boom, me molestaba casi la mitad de un día.

    Es esta una respuesta o un comentario/respuesta? Si el último, me sugieren pegar la parte de código en un gist, y comentando con un enlace a dicha esencia. De lo contrario, usted necesita para dar formato a tu código (haga clic en { } en el editor)
    Bothere mí un día entero! Gracias por el env variables!
    incapaz de resolver los problemas. DESPUÉS de la instalación cdh5 , me estoy poniendo de los errores. es que cualquier problema después de instalar CDH5 en el sistema

    OriginalEl autor unds

  3. 3

    Pruebe a utilizar el siguiente comando para formatear (no hay espacio entre el nombre y el nodo & reemplazar hdfs comando con hadoop)

    hadoop namenode -format
    
    He intentado sin espacio y tiene el mismo error. Iam me falta algo?

    OriginalEl autor SachinJ

  4. 1

    Se parece al ejecutar hadoop comando, no todas las clases (frascos) se incluyen en el classpath.
    Su classpath falta hadoop-hdfs-<version>.jar archivo.

    OriginalEl autor Jerry Ragland

  5. 0

    Traté de las sugerencias anteriores, pero todavía tengo el mismo error. Ajuste de la HADOOP_CLASSPATH de la siguiente manera en su ~/.bashrc trabajado para mí:

    export HADOOP_CLASSPATH=$(hadoop classpath):$HADOOP_CLASSPATH

    OriginalEl autor Eduardo Sanchez-Ros

  6. 0

    He tenido este error también. Para mí, el problema fue que hubo falta de archivos que no fueron extraídos durante la fase de descompresión proceso.

    Lo que funcionó para mí es ir a la ubicación de su .tar.gz archivo y descomprimirlo utilizando de nuevo:

    tar xvzf <file_name>.tar.gz
    

    Ser advertidos de esto reemplaza todos los archivos guardados de modo que si se han realizado cambios a los archivos, lo mejor sería crear una copia de su Hadoop carpeta antes de descomprimir.

    OriginalEl autor typ64

  7. 0

    Me enfrentamos al mismo problema.

    reiniciar el terminal y tratar de ejecutar el comando.

    De reiniciar el Terminal es necesario para realizar el efecto inmediato de la variable de ruta de acceso en el interior .bashrc archivo

    OriginalEl autor Sachin Garg

  8. 0

    Agregar

    exportación HADOOP_PREFIX=/ruta/a/hadoop/instalación/directorio de

    al final de etc/hadoop/hadoop-env.sh archivo en el directorio de instalación de hadoop. Que permite la jvm para localizar los archivos de clase.

    OriginalEl autor Vkreddy Komatireddy

  9. 0

    Asegúrese de que su hdfs ruta de acceso es correcta mediante el uso de which

    which hdfs
    

    OriginalEl autor Aswita Hidayat

  10. 0

    El error es debido a la falta de hadoop hdfs archivos jar en la hadoop classpath.
    Tipo de ‘hadoop ruta de clases” en la terminal y comprobar si el hdfs archivos jar está presente o no. Si no se pegue la siguiente línea en el archivo .bashrc y guárdelo y de la fuente.

    export HADOOP_CLASSPATH=new-classpath:$HADOOP_CLASSPATH
    

    Puede crear la nueva ruta de clases mediante la adición de la ubicación a su hdfs archivos jar al final de la ruta de clases existente y reemplazar la sección ‘nueva ruta de clases” con su propio.

    OriginalEl autor Diya Krishna

  11. 0

    Para Hadoop v3.1.2 en Windows 7, tuve que

    1. Instalar Cygwin (según las instrucciones).

    2. Configurar las siguientes variables de entorno, dándose cuenta de que esos son barras diagonales (/) en lugar de barras diagonales inversas (\):

      HADOOP_HOME=D:/.../hadoop-3.1.2
      
      JAVA_HOME=D:/.../java-1.8.0-openjdk-1.8.0.201-2.b09.redhat.windows.x86_64
      
    3. Volver a abrir Cygwin y CD en mi hadoop directorio — debe re-abierto para recoger las nuevas variables ambientales. Siéntase libre de utilizar ~/.bashrc y exportación HADOOP_HOME=… etc, para hacer esto también.

    4. Asegúrese de que usted escriba el siguiente exactamente:

      ./bin/hdfs.cmd namenode -format

      Debe ser .cmd o de lo contrario no funcionará en Windows.

    Después de que funcionaba perfectamente. Si sigues teniendo problemas, profundizar en el hdfs.archivo cmd y añadir un poco de eco de las llamadas a imprimir lo que se está ejecutando, especialmente cerca de la de java llamada para ver exactamente lo que se está ejecutando.

    OriginalEl autor abelito

Dejar respuesta

Please enter your comment!
Please enter your name here