标签:linux centos hadoop eclipse 分布式
Hadoop安全分布式的Eclipse开发环境配置
详细见教程:http://blog.csdn.net/wang_zhenwei/article/details/48032001
下载 hadoop2x-eclipse-plugin ,将 release 中的 hadoop-eclipse-kepler-plugin-2.2.0.jar (虽然标注的是 2.2.0,但在 2.6.0 下是没问题的,应该在 2.x 版本下都可以)复制到 Eclipse 安装目录的 plugin 文件夹中,运行 eclipse -clean 重启 Eclipse 即可
下载地址:https://github.com/winghc/hadoop2x-eclipse-plugin
注:将Hadoop-Eclipse-Plugin复制到home/haoop/目录下
(这一步可直接在普通用户下操作,若在root用户下,要先进入/home/hadoop/目录)
unzip ./hadoop2x-eclipse-plugin-master.zip
解压
(进入root用户)
cp /home/hadoop/hadoop2x-eclipse-plugin-master/release/hadoop-eclipse-kepler-plugin-2.2.0.jar /usr/local/eclipse/eclipse/plugins/
复制
/usr/local/eclipse/eclipse/eclipse -clean
重启
启动 Eclipse 后就可以在左侧的Project Explorer中看到 DFS Locations(若看到的是 welcome 界面,点击左上角的 x 关闭就可以看到了)
(注:可以在Windows-ShowView处选择要显示的对话框)
第一步:
选择 Window 菜单下的 Preference
此时会弹出一个窗体,窗体的左侧会多出 Hadoop Map/Reduce 选项,点击此选项,选择 Hadoop 的安装目录(如/usr/local/hadoop,直接输入也可以)
第二步:
切换 Map/Reduce 工作目录,选择 Window 菜单下选择 Perspective -> Open Perspective -> Other,弹出一个窗体,从中选择 Map/Reduce 选项即可进行切换
第三步:
建立与 Hadoop 集群的连接,点击 Eclipse软件右下角的 Map/Reduce Locations 面板,在面板中单击右键,选择 New Hadoop Location。
注:信息说明
Location Name:可以任意其,标识一个"Map/Reduce Location"
Map/Reduce Master
Host:192.168.154.156(Master的IP地址)
Port:9001
DFS Master
Use M/R Master host:前面的勾上。(因为我们的NameNode和JobTracker都在一个机器上。)
Port:9000
User name:hadoop(默认为Win系统管理员名字,因为我们之前改了所以这里就变成了hadoop)
接着再切换到 Advanced parameters 选项面板,这边有详细的配置,切记需要与 Hadoop 的配置(/usr/local/hadoop/etc/hadoop中的配置文件)一致,如果配置了 hadoop.tmp.dir,就要进行修改。
/usr/local/hadoop/tmp
如果此时Hadoop没有运行,则会看到下面的结果。
启动Hadoop,结果符合预期。
版权声明:本文为博主原创文章,未经博主允许不得转载。
标签:linux centos hadoop eclipse 分布式
原文地址:http://blog.csdn.net/wang_zhenwei/article/details/48053601