Me encontré con un conteo de palabras ejemplo de uso de Mapreduce la primera vez, y funcionó. Entonces, me detuve el clúster, comenzó de nuevo en un tiempo, y sigue el mismo procedimiento.

Mostró este error:

10P:/$  hadoop jar /usr/local/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0.jar wordcount /user/test/tester /user/output
15/08/05 00:16:04 INFO Configuration.deprecation: session.id is deprecated. Instead, use dfs.metrics.session-id
15/08/05 00:16:04 INFO jvm.JvmMetrics: Initializing JVM Metrics with processName=JobTracker, sessionId=
org.apache.hadoop.mapred.FileAlreadyExistsException: **Output directory hdfs://localhost:54310/user/output already exists**
    at org.apache.hadoop.mapreduce.lib.output.FileOutputFormat.checkOutputSpecs(FileOutputFormat.java:146)
    at org.apache.hadoop.mapreduce.JobSubmitter.checkSpecs(JobSubmitter.java:562)
    at org.apache.hadoop.mapreduce.JobSubmitter.submitJobInternal(JobSubmitter.java:432)
    at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1296)
    at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1293)
    at java.security.AccessController.doPrivileged(Native Method)
    at javax.security.auth.Subject.doAs(Subject.java:415)
    at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1628)
    at org.apache.hadoop.mapreduce.Job.submit(Job.java:1293)
    at org.apache.hadoop.mapreduce.Job.waitForCompletion(Job.java:1314)
    at org.apache.hadoop.examples.WordCount.main(WordCount.java:87)
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
    at java.lang.reflect.Method.invoke(Method.java:606)
    at org.apache.hadoop.util.ProgramDriver$ProgramDescription.invoke(ProgramDriver.java:71)
    at org.apache.hadoop.util.ProgramDriver.run(ProgramDriver.java:144)
    at org.apache.hadoop.examples.ExampleDriver.main(ExampleDriver.java:74)
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
    at java.lang.reflect.Method.invoke(Method.java:606)
    at org.apache.hadoop.util.RunJar.run(RunJar.java:221)
    at org.apache.hadoop.util.RunJar.main(RunJar.java:136)

3 Comentarios

  1. 11

    hdfs://localhost:54310/usuario/salida

    Eliminar el directorio de salida antes de ejecutar el trabajo.

    yo.e ejecutar el siguiente comando:

    hadoop fs -rm -r /user/output 
    

    antes de ejecutar el trabajo.

    • Esta respuesta es apt. No sé, y fue votada abajo. Upvoting la respuesta para el mismo
    • Tal vez la respuesta fue abajo votado porque de acuerdo a esta respuesta, el usuario tendrá que eliminar manualmente el archivo cada vez que se ejecuta el trabajo.
    • Yo creí que él es el uso básico de mapreduce ejemplos, «hadoop-mapreduce-examples-2.6.0.jar» así que le di una opción sin cambiar el ejemplo de código de ejemplo :). De todos modos buen trabajo, tanto de las opciones de trabajo….
    • Es útil, pero podría haber explicado por qué el directorio de salida no se espera que existan.
  2. 4

    Añadir el siguiente fragmento de código en su clase de configuración.

        //Delete output if exists
        FileSystem hdfs = FileSystem.get(conf);
        if (hdfs.exists(outputDir))
          hdfs.delete(outputDir, true);
    
        //Execute job
        int code = job.waitForCompletion(true) ? 0 : 1;
        System.exit(code);
    
  3. 0

    Simplemente escribir el código del controlador como este

    public class TestDriver extends Configured implements Tool {
        static Configuration cf;
        @Override
        public int run(String[] arg0) throws IOException,InterruptedException,ClassNotFoundException {
            cf=new Configuration();
            Job j=Job.getInstance(cf);
            j.setJarByClass(TestDriver.class);
            j.setMapperClass(CustMapper.class);
            j.setMapperClass(TxnMapper.class);
            j.setMapOutputKeyClass(CustKey.class);
            j.setMapOutputValueClass(Text.class);
            j.setReducerClass(JoinReducer.class);
            j.setOutputKeyClass(CustKey.class);
            j.setOutputValueClass(Text.class);
    //FOCUS ON THE LINE BELOW
            Path op=new Path(arg0[2]);
            j.setInputFormatClass(CustInputFormat.class);
            MultipleInputs.addInputPath(j, new Path(arg0[0]),CustInputFormat.class,CustMapper.class);
            MultipleInputs.addInputPath(j, new Path(arg0[1]),ShopIpFormat.class,TxnMapper.class);
            j.setOutputFormatClass(CustTxOutFormat.class);
            FileOutputFormat.setOutputPath(j, op);
    //WRITING THIS LINE SHALL DELETE THE OUTPUT FOLDER AFTER YOU'RE DONE WITH THE //JOB
            op.getFileSystem(cf).delete(op,true);
    
            return j.waitForCompletion(true)?0:1;
        }
    
        public static void main(String argv[])throws Exception{
            int res=ToolRunner.run(cf, new TestDriver(), argv);
            System.exit(res);
        }
    }
    

    Espero que esto aclare tu duda.


    Gracias 🙂

Dejar respuesta

Please enter your comment!
Please enter your name here