标签:
不依赖hadoop
百度分享安装包地址:http://pan.baidu.com/s/1dD4BcGT 点击打开链接
解压 并重命名:
进入spark100目录:
修改配置:
Cd conf
配置单击节点,故只需要写本机的hostname就可以了。
重命名Spark-env.sh.template 为 spark-env.sh
增加配置项:
启动
监控页面效果:
进入spark-shell:(运行完后点击回车键就可以写scala代码)
选用了外部文件:
区别于hdfs的读取方式:
退出spark-shell:exit
标签:
原文地址:http://www.cnblogs.com/ITxiaojiayu/p/5930571.html