标签:rmi 配置文件 second 机器 用户密码 tab mil 行合并 文件夹
曾经的学习笔记
1.Hadoop简介:
a) 分布式存储系统HDFS
b) 分布式计算框架MapReduce
2.HDFS优点:
a) 高容错性
b) 适合批处理
c) 适合大数据处理
d) 可构建在廉价机器上
3.HDFS的缺点:
a) 低延迟数据访问
b) 小文件存取
c) 并发写入、文件随机修改
4.HDFS架构:
a) NameNode(NN元数据) 保存着 HDFS 的名字空间
b) SecondaryNameNode
c) DataNode(存放数据)
5.HDFS文件权限
a) 与Linux文件权限类似,rwx,权限x对于文件忽略,对文件夹表示允许访问
b) HDFS用户认证:
6.安全模式
7.安装Hadoop:
a) 在Windows下解压hadoop-2.5.2.tar.gz
b) 查看官方文档:\hadoop-2.5.2\share\doc\hadoop\index.html
c) 按官方文档搭建伪分布式:Single Node Setup-->Pseudo-Distributed Operation
d) 安装所需要环境yum install -y ssh rsync
e) 把hadoop-2.5.2.tar.gz上传到/usr/local/temp/
f) 解压并移动目录mv -r hadoop-2.5.2 /usr/local/hadoop
g) 修改配置环境 vim /usr/local/hadoop/etc/hadoop/hadoop-env.sh
h) 在/usr/local/hadoop下测试命令:bin/hadoop
i) 搭建伪分布式操作;修改文件内容:
<configuration> <property> <name> fs.defaultFS </ name> <value> hdfs:// localhost:9000 </ value> </ property> </ configuration> |
<configuration> <property> <name> dfs.replication </ name> <value> 1 </ value> </ property> </ configuration> |
j) 格式化文件系统:bin/hdfs namenode -format
k) 启动NameNode跟datanode守护程序:sbin/start-dfs.sh
8.HDFS安装:
a) 上传tar包,解压并移动到/usr/local/hadoop
b) 配置用户环境变量:vim ~/.bash_profile,配置java,Hadoop的目录,重新加载配置
c) 进入Hadoop文件夹下修改Hadoop环境配置:vim etc/hadoop/hadoop-env.sh
d) 修改核心配置:vim etc/hadoop/core-site.xml
e) 修改hdfs配置文件:vim etc/hadoop/hdfs-site.xml
f) 配置Hadoop数据存储节点:vim etc/hadoop/sales
g) 设置免密登录:ssh
h) 拷贝hosts文件到其他所有节点:scp /etc/hosts root@node2:/etc/
i) 在node2节点中监控/etc/hosts:tail -f /etc/hosts
j) 拷贝~/.bash_profile文件到其他所有节点:
scp ~/.bash_profile root@node2:~/.bash_profile
k) 拷贝hadoop文件夹拷贝到其他节点中:
scp -r /usr/local/hadoop root@node2:/usr/local
l) 格式化HDFS: hdfs namenode -format(注意符号)必须在主节点上
m) 在主节点上启动 start-dfs.sh
测试:192.168.189.3:50070浏览器连接
编程:192.168.189.3:9000
如果启动有问题,看日志文件tail -10 /usr/local/hadoop/logs/
9.操作hdfs文件系统
a) hdfs dfs put 上传
b) hadoop-deamon.sh restart datanode重启单个节点
c) stop-dfs.sh
10.导入eclipse的Hadoop插件
11.Java控制hdfs
a) 创建项目
b) 导入jar包
标签:rmi 配置文件 second 机器 用户密码 tab mil 行合并 文件夹
原文地址:http://www.cnblogs.com/azheblog/p/6808328.html