Estoy usando Ubuntu 12.04, hadoop-0.23.5, colmena-0.9.0.
Yo especificada mi metastore_db por separado a algún otro lugar $HIVE_HOME/my_db/metastore_db en hive-site.xml

Hadoop corre bien, jps da ResourceManager,NameNode,DataNode,NodeManager,SecondaryNameNode

Colmena se inicia perfectamente,metastore_db & derby.registro creado también,y todos los de la colmena comandos se ejecutan correctamente,puedo crear bases de datos,tabla,etc. Pero después de unos días más tarde,cuando ejecuto show databases,o show tables, por debajo de error

FAILED: Error in metadata: MetaException(message:Got exception:  java.net.ConnectException Call to localhost/127.0.0.1:54310 failed on connection exception: java.net.ConnectException: Connection refused) FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask
InformationsquelleAutor Sagar Nikam | 2013-01-20

4 Comentarios

  1. 3

    He tenido este problema también, y la aceptó respuesta no me ayude, así va a agregar mi solución aquí para los demás:

    Mi problema era que yo tenía una sola máquina con un pseudo distribuido configurar instalado con la colmena. Se estaba trabajando bien con localhost como nombre de host. Sin embargo, cuando decidimos añadir varias máquinas del clúster también se decidió dar a las máquinas de los nombres propios «machine01, máquina 02, etc, etc».

    He cambiado todos los hadoop conf/*-site.xml archivos y la hive-site.xml archivo demasiado, pero todavía tenía el error. Después de una exhaustiva investigación me di cuenta de que en el metastore db colmena estaba recogiendo el Uri no de *-archivos del sitio, pero a partir de la metastore tablas en mysql. Donde todos los de la colmena de la tabla de meta datos que se guardan son dos tablas de la SDS y DBS. Al cambiar el DB_LOCATION_URI columna y la UBICACIÓN en las tablas de la DBS y la SDS, respectivamente, a punto para la última namenode URI, yo estaba de vuelta en los negocios.

    Espero que esto ayude a otros.

  2. 1

    En caso de nueva instalación

    el problema anterior puede ser el efecto de un nombre de nodo problema

    intente formatear el namenode usando el comando

    hadoop namenode -format
    
    • Formatear un namenode sin una sólida razón, es buscar problemas.Usted puede hacer eso en su máquina local con cualquier número de veces, pero no en el entorno de producción.
    • como puedo configurar mi clúster recién, esta realmente trabajado. gracias
  3. 0

    razones para este

    1. Si usted cambió su Hadoop/Colmena de la versión,puede ser la especificación anterior versión de hadoop (que ha ds.default.name=hdfs://localhost:54310 en core-site.xml) en su hive-0.9.0/conf/hive-env.sh
      archivo
    2. $HADOOP_HOME puede ser punto a otro lugar
    3. Especifica la versión de Hadoop no está funcionando
    4. su namenode puede ser en modo seguro ,ejecute bin/hdfs dfsadmin -safemode leave o bin/hadoop dsfadmin -safemode leave
    • estoy mirando problema similar.Mis demonios se ejecuta como se esperaba.Mi namenode no es en modo seguro, pero todavía tengo que hacer frente a este problema.
  4. 0

    1.Apague el namenode desde el modo seguro. Pruebe los siguientes comandos:

    hadoop dfsadmin -safemode leave
    

    2.Reinicie su Hadoop demonios:

    sudo service hadoop-master stop
    
    sudo service hadoop-master start
    

Dejar respuesta

Please enter your comment!
Please enter your name here