Hola a todos tengo el programa de instalación de multi nodo de clúster (he.e 5 nodo) en mi red que funciona bien.
ahora quería insertar y recuperar datos de clúster mediante la colmena por lo tanto he de instalación de la colmena última versión apache-hive-0.14.0-bin.tar.gz (es decir, 0.14.0 de aquí ) en mi nodo maestro que se da en la este artículo.

también he escrito un cliente en java de la clase que va a hacer la conexión jdbc a la colmena e insertar los datos en HDFS, el uso de la colmena.

HiveJdbcClient.Java

public class HiveJdbcClient {
private static final String DRIVER_NAME = "org.apache.hive.jdbc.HiveDriver";
private static final String HIVE_URL = "jdbc:hive2://x.x.x.x:10000/default";
private static final String HIVE_UNAME = "";
private static final String HIVE_PWD = "";
private static Connection con;
private HiveJdbcClient() {}
public static Connection getConnection() {
try {
if (con == null) {
synchronized (HiveJdbcClient.class) {
if (con == null) {
Class.forName(DRIVER_NAME);
con = DriverManager.getConnection(HIVE_URL,
HIVE_UNAME, HIVE_PWD);
System.out.println("Successfuly Connected to database...!");
}
}//End of synchronized block.
}//End of if block.
} catch (SQLException e) {
System.out.println("Can Not able to connect to database pls check your settings \n" + e);
} catch (ClassNotFoundException e) {
System.out.println("Can Not able to connect to database pls check your settings \n" + e);
}//End of try-catch block. 
return con;
}//End of getConnection() Method.
public static ResultSet executeQuery(String sql) {
ResultSet set = null;
try {
if (sql != null) {
set = getConnection().createStatement().executeQuery(sql);
}
} catch (SQLException e) {
System.out.println("Error while executing query " + e);
}//End of try-catch block.
return set;
}//End of executeQuery() Method.
public static void main(String[] args) throws ParseException, SQLException {
ResultSet res = executeQuery("SELECT * FROM mytable");
while (res.next()) {
System.out.println(String.valueOf(res.getString(1)) + '\t'
+ String.valueOf(res.getFloat(2)) + '\t'
+ String.valueOf(res.getString(3)));
}
}
}//End of HiveJdbcClient Class.

mi aplicación capaz de conectarse al servidor cuando ejecuto el siguiente comando en la terminal

$HIVE_HOME/bin/hiveserver2
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/opt/hadoop-2.6.0/share/hadoop/common/lib/slf4j-log4j12-1.7.5.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/opt/apache-hive-0.14.0-bin/lib/hive-jdbc-0.14.0-standalone.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]
OK 

pero cuando quiero cerrar este terminal, a continuación, mi aplicación da error siguientes

ERROR

java.sql.SQLException: Could not open client transport with JDBC Uri: jdbc:hive2://X.X.X.X:10000/default: java.net.ConnectException: Connection refused

que significa que tengo que ejecutar hiveserver2 como un servicio en mi nodo maestro.

¿puede alguien ayudarme a ejecutar este hiveserver2 como servicio. ni de ningún enlace que me ayudará a ejecutar hiveserver2 como servicio.

3 Comentarios

  1. 10

    ¿Has probado –opción de servicio?

    $HIVE_HOME/bin/hive --service hiveserver2 &
    • Gracias por responder esto funciona para mí…

Dejar respuesta

Please enter your comment!
Please enter your name here