码迷,mamicode.com
首页 > 其他好文 > 详细

Spark环境准备

时间:2018-06-04 23:22:32      阅读:186      评论:0      收藏:0      [点我收藏+]

标签:2.7   准备   ubuntu   JD   ado   appname   ksh   进入   测试   

Ubuntu:

1、下载spark-2.2.1-bin-hadoop2.7.tgz,解压即可使用。

2、下载jdk-8u151-linux-x64.tar.gz,解压。

3、执行spark-2.2.1-bin-hadoop2.7/bin/pyspark,进入Spark运行环境。

4、测试:

>>> import sys
>>> import pyspark
>>> sc
<SparkContext master=local[*] appName=PySparkShell>
>>>

Spark环境准备

标签:2.7   准备   ubuntu   JD   ado   appname   ksh   进入   测试   

原文地址:https://www.cnblogs.com/ruanchao/p/9136336.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!