把下载下来的“hadoop-2.2.0.tar.gz”拷贝到“/usr/local/hadoop/”目录下并解压:
修改系统配置文件,修改~/.bashrc文件配置“HADOOP_HOME”并把“HADOOP_HOME”下的bin文件夹加入PATH中,修改完后使用source命令使配置生效。
接下来在hadoop目录下按照如下命令创建文件夹:
\接下来开始...
分类:
其他好文 时间:
2014-10-09 16:17:18
阅读次数:
181
把下载下来的“hadoop-2.2.0.tar.gz”拷贝到“/usr/local/hadoop/”目录下并解压:修改系统配置文件,修改~/.bashrc文件配置“HADOOP_HOME”并把“HADOOP_HOME”下的bin文件夹加入PATH中,修改完后使用source命令使配置生效。接下来在h...
分类:
其他好文 时间:
2014-10-09 15:57:48
阅读次数:
179
1.环境OS:Red Hat Enterprise Linux Server release 6.4 (Santiago)Hadoop:Hadoop 2.4.1Hive:0.11.0JDK:1.7.0_60Spark:1.1.0(内置SparkSQL)Scala:2.11.22.Spark集群规划账...
分类:
数据库 时间:
2014-10-09 01:49:27
阅读次数:
306
第五步:测试Spark IDE开发环境 此时我们直接选择SparkPi并运行的话会出现如下错误提示: 从提示中可以看出是找不到Spark程序运行的Master机器。 此时需要配置SparkPi的执行环境: 选择“Edit Configurations”进...
分类:
其他好文 时间:
2014-09-26 13:32:19
阅读次数:
173
第四步:通过Spark的IDE搭建并测试Spark开发环境Step1:导入Spark-hadoop对应的包,次选择“File”–>“ProjectStructure”–>“Libraries”,选择“+”,将spark-hadoop对应的包导入:点击“OK”确认:点击“OK”:IDEA工作完成后会发现Spark的jar包导入到了我们的工程中..
分类:
其他好文 时间:
2014-09-26 01:10:28
阅读次数:
365
第四步:通过Spark的IDE搭建并测试Spark开发环境Step 1:导入Spark-hadoop对应的包,次选择“File”–> “Project Structure” –> “Libraries”,选择“+”,将spark-hadoop 对应的包导入:点击“OK”确认:点击“OK”:IDEA工...
分类:
其他好文 时间:
2014-09-25 16:21:19
阅读次数:
169
第四步:通过Spark的IDE搭建并测试Spark开发环境 ? Step 1:导入Spark-hadoop对应的包,次选择“File”–> “Project Structure” –> “Libraries”,选择“+”,将spark-hadoop 对应的包导入: 点击“OK”确认:...
分类:
其他好文 时间:
2014-09-25 16:08:29
阅读次数:
155
点击确认后出现如下视图:点击“Restart”重新启动:再次运行我们的第一个Scala程序:发现我们完全使用了新的背景,同时正确运行了程序,与第一次运行相比,速度快了很多。
分类:
其他好文 时间:
2014-09-24 12:59:57
阅读次数:
178
第一阶段:熟练的掌握Scala语言Spark框架是采用Scala语言编写的,精致而优雅。要想成为Spark高手,你就必须阅读Spark的源代码,就必须掌握Scala,;虽然说现在的Spark可以采用多语言Java、Python等进行应用程序开发,但是最快速的和支持最好的开发API依然并将永远是Sca...
分类:
其他好文 时间:
2014-09-24 11:07:36
阅读次数:
305
点击确认后出现如下视图: 点击“Restart”重新启动: 再次运行我们的第一个Scala程序: 发现我们完全使用了新的背景,同时正确运行了程序,与第一次运行相比,速度快了很多。
分类:
其他好文 时间:
2014-09-24 10:59:36
阅读次数:
144