Me gustaría correr una lista de generar consultas de HIVE.
Para cada uno, me gustaría recuperar el SEÑOR job_id (o ids, en el caso de múltiples etapas).
Y entonces, con este job_id, recopilar estadísticas de trabajo de monitor (CPU acumulado, leer bytes…)

¿Cómo puedo enviar consultas de HIVE de un bash o python script, y recuperar el job_id(s) ?

Para la parte 2 (recopilación de estadísticas del trabajo), estamos usando una MRv1 clúster Hadoop, así que no tengo la AppMaster la API de REST.. Estoy a punto de recoger los datos de la jobtracker la interfaz de usuario web. Alguna idea mejor ?

InformationsquelleAutor mathieu | 2013-01-30

1 Comentario

  1. 3

    usted puede obtener la lista de los trabajos ejecutados por la ejecución de este comando,

    hadoop de empleo -lista de todos los

    a continuación, para cada puesto de trabajo-id, usted puede recuperar las estadísticas, utilizando el comando,
    hadoop trabajo de estado de trabajo-identificación de

    Y para la asociación de los puestos de trabajo con una consulta, usted puede obtener el nombre y el partido con la consulta.
    algo como esto,
    Cómo obtener los nombres de los que actualmente se ejecuta trabajos de hadoop?

    espero que esto ayude.

    • El hadoop guión ha sido despreciado en favor de mapred así que es mejor utilizar el siguiente comando ahora. $ mapred job -status job-id

Dejar respuesta

Please enter your comment!
Please enter your name here