码迷,mamicode.com
首页 > 编程语言 > 详细

spark的java和scala混合工程构建记录!

时间:2016-10-05 01:01:25      阅读:362      评论:0      收藏:0      [点我收藏+]

标签:spark maven java scala混合编程

spark的java和scala混合工程构建记录!

今天就跟这个赶上了,各种办法,各种百度。


一、maven手动构建


1、dos命令下,进入目录,构建一个scala模板的工程


mvn archetype:generate -DarchetypeGroupId=org.scala-tools.archetypes -DarchetypeArtifactId=scala-archetype-simple -DremoteRepositories=http://scala-tools.org/repo-releases -DgroupId=com.dyq -DartifactId=KafkaSparkRedis -Dversion=1.0-SNAPSHOT


2、改造成eclipse工程:

mvn eclipse:eclipse

我用以上2遍就成功了。

还有可以用:

mvn org.apache.maven.plugins:maven-eclipse-plugin:2.6:eclipse


3、新建Java的目录



结果如下所示,没有的就加上
├── pom.xml
├── src│   
     ├── main│      
     │     ├── java│         
     │     │     └── com.jhh│             
    │     │             │ ── Main.java         
    │     └── scala│          
    │           └── com│              
    │                 │ ── jhh            
    │                           │── App.scala   
    └── test│       
          ├── java│       
          └── scala


4、添加管理Java的插件

修改pom.xml添加一个管理java源码的pluginbuild-helper plugin,添加位置
/project/build/plugins
<plugin>
<groupId>org.codehaus.mojo</groupId>
<artifactId>build-helper-maven-plugin</artifactId>
<executions>
<execution>
<phase>generate-sources</phase>
<goals><goal>add-source</goal></goals>
<configuration>
<sources>
<source>src/main/java</source>
</sources>
</configuration>
</execution>
</executions></plugin>



spark的java和scala混合工程构建记录!

标签:spark maven java scala混合编程

原文地址:http://36006798.blog.51cto.com/988282/1858754

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!