标签:
测试一下,
这是一些文字
import scala.io.Source
import java.io.PrintWriter
import com.lujinhong.demo.scala.MyJavaClass
object IODemo {
def main(args: Array[String]) = {
val outFile = "/Users/liaoliuqing/Downloads/1.txt"
//将第15行数据输出到一个文件中
writeToFile(outFile, “hello scala")
}
import scala.io.Source
import java.io.PrintWriter
import com.lujinhong.demo.scala.MyJavaClass
object IODemo {
def main(args: Array[String]) = {
val outFile = "/Users/liaoliuqing/Downloads/1.txt"
//将第15行数据输出到一个文件中
writeToFile(outFile, “hello scala")
}
//将内容写入某个文件中,由于scala没有提供写文件的支持,可以使用java.io中的类代替
def writeToFile(outFile: String, content: String) {
val out = new PrintWriter(outFile)
out.write(content)
out.close()
}
}
//将内容写入某个文件中,由于scala没有提供写文件的支持,可以使用java.io中的类代替
def writeToFile(outFile: String, content: String) {
val out = new PrintWriter(outFile)
out.write(content)
out.close()
}
}
?
?
然后是一些代码
?
package org.lujinhong.demo.spark
/*
* 官方的sparkPi示例
*/
import scala.math.random
import org.apache.spark._
/** Computes an approximation to pi */
object SparkPi {
def main(args: Array[String]) {
val conf = new SparkConf().setAppName("Spark Pi").setMaster("local")
val spark = new SparkContext(conf)
val slices = if (args.length > 0) args(0).toInt else 2
val n = math.min(100000L * slices, Int.MaxValue).toInt // avoid overflow
val count = spark.parallelize(1 until n, slices).map { i =>
val x = random * 2 - 1
val y = random * 2 - 1
if (x*x + y*y < 1) 1 else 0
}.reduce(_ + _)
println("Pi is roughly " + 4.0 * count / n)
spark.stop()
}
}
标签:
原文地址:http://www.cnblogs.com/lujinhong2/p/4657813.html