标签:
我们使用 sbt 创建、测试、运行和提交作业。该教程会解释你在我们的课程中将会用到的所有 sbt 命令。工具安装页说明了如何安装
sbt。我们一般将代码和库做成jar包,通过spark-submit 提交到spark 集群上运行。
1)下载安装:
http://www.scala-sbt.org/
2)创建工程:
比如现在的工程名为“sparksample”。那么
2
3
4
5
|
cdsparksample
mkdirproject
mkdirsrc/main/scala
|
一般的工程文件结构如下:
3)编写build.sbt
name := "Spark Sample"
version := "1.0"
scalaVersion := "2.10.3"
libraryDependencies += "org.apache.spark" %% "spark-core" % "1.1.1"
这里需要注意使用的版本,scala 和spark streaming的版本是否匹配等等。
http://mvnrepository.com/artifact/org.apache.spark/spark-streaming_2.10/1.4.1
4) 构建jar 包。
在project的文件目录下(e.g. "sparksample")
> sbt package
5)提交到spark:
e.g: cd /opt/spark******
bin/spark-submit --class "org.apache.spark.examples.streaming.KafkaWordCount" --packages org.apache.spark:spark-streaming-kafka_2.10:1.4.1 --master local[2] /home/ubuntu/KafkaWordCount/target/scala-2.10/kafkawordcount_2.10-1.0.jar 10.81.52.88:9092 tintin具体怎么写参数,请看官方:
|
http://spark.apache.org/docs/latest/submitting-applications.html#submitting-applications |
参考:http://www.tuicool.com/articles/AJnIvq
http://www.scala-sbt.org/release/docs/index.html
http://www.supergloo.com/fieldnotes/apache-spark-cluster-part-2-deploy-a-scala-program-to-spark-cluster/
版权声明:本文为博主原创文章,未经博主允许不得转载。
【大数据处理架构】2. 用sbt 构建工具 到spark cluster
标签:
原文地址:http://blog.csdn.net/u011613321/article/details/47700211