标签:
测试一下,
这是一些文字
import scala.io.Source import java.io.PrintWriter import com.lujinhong.demo.scala.MyJavaClass object IODemo { def main(args: Array[String]) = { val outFile = "/Users/liaoliuqing/Downloads/1.txt" //将第15行数据输出到一个文件中 writeToFile(outFile, “hello scala") } import scala.io.Source import java.io.PrintWriter import com.lujinhong.demo.scala.MyJavaClass object IODemo { def main(args: Array[String]) = { val outFile = "/Users/liaoliuqing/Downloads/1.txt" //将第15行数据输出到一个文件中 writeToFile(outFile, “hello scala") } //将内容写入某个文件中,由于scala没有提供写文件的支持,可以使用java.io中的类代替 def writeToFile(outFile: String, content: String) { val out = new PrintWriter(outFile) out.write(content) out.close() } } //将内容写入某个文件中,由于scala没有提供写文件的支持,可以使用java.io中的类代替 def writeToFile(outFile: String, content: String) { val out = new PrintWriter(outFile) out.write(content) out.close() } }
?
?
然后是一些代码
?
package org.lujinhong.demo.spark /* * 官方的sparkPi示例 */ import scala.math.random import org.apache.spark._ /** Computes an approximation to pi */ object SparkPi { def main(args: Array[String]) { val conf = new SparkConf().setAppName("Spark Pi").setMaster("local") val spark = new SparkContext(conf) val slices = if (args.length > 0) args(0).toInt else 2 val n = math.min(100000L * slices, Int.MaxValue).toInt // avoid overflow val count = spark.parallelize(1 until n, slices).map { i => val x = random * 2 - 1 val y = random * 2 - 1 if (x*x + y*y < 1) 1 else 0 }.reduce(_ + _) println("Pi is roughly " + 4.0 * count / n) spark.stop() } }
标签:
原文地址:http://www.cnblogs.com/lujinhong2/p/4657813.html