Soy nuevo en el Scala, la Chispa y Maven y quiere construir chispa aplicación descrita aquí. Utiliza el Mahout biblioteca.

He Scala IDE de instalar y me gustaría utilizar Maven para construir las dependencias (que son los Mahout biblioteca así como Chispa lib). No podía encontrar un buen tutorial para empezar. Podría alguien ayudarme a resolverlo?

InformationsquelleAutor H.Z. | 2015-07-28

2 Comentarios

  1. 3

    Primer intento de compilar sencilla aplicación con Maven en la Scala de IDE. La clave del proyecto de Maven es la estructura de directorios y pom.xml. Aunque yo no uso Scala IDE, este documento parece útil.
    http://scala-ide.org/docs/tutorials/m2eclipse/

    Siguiente paso es añadir la dependencia de Chispa en pom.xml usted puede seguir este documento.
    http://blog.cloudera.com/blog/2014/04/how-to-run-a-simple-apache-spark-app-in-cdh-5/

    Para la última versión de Spark y Mahout artefactos usted puede comprobar aquí:
    http://mvnrepository.com/artifact/org.apache.spark
    http://mvnrepository.com/artifact/org.apache.mahout

    Espero que esto ayude.

  2. 0

    Usted necesita las siguientes herramientas para empezar ( basado en la reciente disponibilidad) –

    • Scala IDE para java – Descargar la última versión de Scala IDE de
      aquí.

    • Scala de la Versión 2.11 ( asegúrese de compilador de scala se establece en
      esta versión también)

    • Spark Versión 2.2 ( siempre en maven
      la dependencia)

    • winutils.exe

    Para ejecutar en un entorno de Windows , usted necesita hadoop binarios en
    formato de windows. winutils ofrece eso y tenemos que establecer
    hadoop.casa.dir sistema de propiedad de bin camino dentro de la cual winutils.exe
    está presente. Puede descargar winutils.exe aquí y el lugar en el camino
    como este – c:/hadoop/bin/winutils.exe

    Y, puede definir Spark Core de Dependencia en su Maven POM.XML para su proyecto, para comenzar con.

       <dependency> <!-- Spark dependency -->
         <groupId>org.apache.spark</groupId>
         <artifactId>spark-core_2.11</artifactId>
         <version>2.2.0</version>
         <scope>provided</scope>
       </dependency>

    Y en Java/Scala clase de definir esta propiedad, para que se ejecute en su medio local en Windows –

    System.setProperty("hadoop.home.dir", "c://hadoop//");

    Más detalles y completa los detalles de configuración se puede encontrar aquí.

Dejar respuesta

Please enter your comment!
Please enter your name here