码迷,mamicode.com
首页 > 其他好文 > 详细

智传播客hadoop视频学习笔记(共2天)

时间:2015-12-03 23:21:57      阅读:462      评论:0      收藏:0      [点我收藏+]

标签:

第一天:
1、答疑解惑
•  就业前景
•  学习hadoop要有什么基础
•  hadoop会像塞班一样,热一阵子吗
•  hadoop学习起来容易还是困难
•  课堂上的学习方法(所有实验必须按照要求做,重原理、重实践)
•  通过本课程能学到什么

2、 课程简介
•  以真实的电信详单分析程序为主线,讲解Hadoop,Hbase,Hive在大数据处理的应用场景与过程
•  通过此课程,你能
     •  掌握Hadoop基本知识,进行HadoopHDFS和MapReduce应用开发,搭建Hadoop集群
     •  掌握Hbase基本知识,搭建Hbase集群,Hbase的基本操作
     •  掌握数据仓库基本知识,用Hive建立数据仓库,并进行多维分析

3、7天课程体系
•  Day1  单间伪分布和分布式实验环境
•  Day2  介绍HDFS体系结构及shell、java操作方式
•  Day3  介绍MapReduce系统结构及各种算法(1)
•  Day4  介绍MapReduce系统结构及各种算法(2)
•  Day5  介绍Hadoop集群、ZooKeeper操作
•  Day6  介绍HBase体系结构及基本操作
•  Day7  介绍Hive、sqoop体系结构及基本操作和最后项目

4、学习hadoop的就业前景


5、第一天  课程安排
•  Hadoop项目简介*
•  搭建Hadoop的伪分布环境***
•  使用Eclipse查看Hadoop源码*

6、LOGO


7、     Hadoop的生态图

(3)File System:HDFS,相当于windows下的资源管理器,存储文件的管理系统(5)Engine+Logic:MapReduce,对来自于HDFS的数据进行计算。
(1)浏览器
(2)Nutch
(6)Unstructured Data  :非结构化数据,Flume、Scribe,收集日志
(7)Structured Data:结构化数据,RDBM,存储在表中的数据,hiho,Sqoop。
(14)HBase:OLTP,在线处理应用,低延迟
(11)Monitor/manage:监控管理器,Hue,Eclipse
(8)High Level Interfaces:高级别接口,JAQL,数据流处理语言,Hive
(12)Support:底层支持化工具
(10)Workflow:工作流
(13)More High Level Interfaces:更高级别接口,mahout,封装了的算法,amazon
(4)作为终端的BI的东西

8、Hadoop是什么?
     适合大数据的分布式存储与计算平台
     •  作者:Doug Cutting
     •  受Google三篇论文的启发

9、版本
•  Apache
     官方版本(1.1.2)
•  Cloudera
     使用下载最多的版本,稳定,有商业支持,在Apache的基础上打上了一些patch。推荐使用。
•  Yahoo
     Yahoo内部使用的版本,发布过两次,已有的版本都放到了Apache上,后续不在继续发布,而是集中在Apache的版本上。

10、Hadoop核心项目
•  HDFS:Hadoop Distributed File System  分布式文件系统
•  MapReduce:并行计算框架

11、HDFS的架构
•  主从结构
     •  主节点,只有一个:namenode
     •  从节点,有很多个:datanode
•  namenode负责:
     •  接收用户操作请求
     •  维护文件系统的目录结构
     •  管理文件与block之间关系,block与datanode之间关系
•  datanode负责:
     •  存储文件
     •  文件被分成block存储在磁盘上
     •  为保证数据安全,文件会有多个副本

12、MapReduce的架构
•  主从结构
     •  主节点,只有一个:JobTracker
     •  从节点,有很多个:TaskTracker
•  JobTracker负责:
     •  接收客户提交的计算任务
     •  把计算任务分给TaskTracker执行
     •  监控TaskTracker的执行情况
•  TaskTracker负责:
     •  执行JobTracker分配的任务

13、Hadoop的特点
•  扩容能力(Scalable):能可靠地(reliably)存储和处理千兆字节(PB)数据。
•  成本低(Economical):可以通过普通机器组成的服务器群来分布以及处理数据。这些服务器群总计可达数千个节点。
•  高效率(Efficient):通过分布数据,Hadoop可以在数据所在的节点上并行地(parallel)处理它们,这使得处理非常的快速。
•  可靠性(Reliable):hadoop能自动地维护数据的多份副本,并且在任务失败后能自动地重新部署(redeploy)计算任务。

14、Hadoop集群的物理分布

跨虚拟机通信:WebServe。

15、单节点物理结构


16、Hadoop部署方式
•  本地模式
•  伪分布模式
•  集群模式

17、安装前准备软件
•  Vitual Vox
•  rhel-server-6.3-i386-dvd.iso
•  jdk-6上-linux-xxx.bin
•  hadoop-1.1.2.tar.gz

18、伪分布模式安装步骤
•  关闭防火墙
•  修改ip
•  修改hostname
•  设置ssh自动登录
•  安装jdk
•  安装hadoop

*****网络连接方式
1、宿主机(windows)与客户机(安装在虚拟机中的linux)网络连接
     1.1  host-only  宿主机与客户机单独组网。
          好处:网络隔离
          坏处:虚拟机与其他服务器之间不能通信    
     需要将VMnet1适配器打开
     1.2 bridge    客户机与宿主机在同一个局域网中。
          好处:都在同一个局域网,可以互相访问
          坏处:不安全 


19、常用linux命令




20、hadoop的伪分布安装步骤
     【使用root用户登陆】
     20.1  设置静态ip
     •  在centos桌面右上角的图标上,右键修改。
     •  重启网卡,执行命令service network restart
     •  验证:执行命令ipconfig
     20.2  修改主机名
     •  修改当前会话中的主机名,执行命令hostname  hadoop
     •  修改配置文件中的主机名,执行命令 vi /etc/sysconfig/network
     •  重启机器 reboot -h now
     20.3  把主机名和ip绑定起来
     •  执行命令vi /etc/hosts,增加一行内容,如下:
            192.168.22.100  hadoop-yang
     •  验证:ping hadoop-yang
     20.4  关闭防火墙
     •  执行命令  service iptables stop
     •  验证: service iptables status
     20.5  关闭防火墙的自动运行
     •  查看所有进程  chkconfig –list
     •  执行命令 chkconfig  iptables off
     •  验证:chkconfig –-list | grep iptables
     20.6  SSH(secure shell)的免密码登陆
     •  执行命令ssh-keygen -t rsa 产生密钥,位于~/.ssh文件夹中
     •  执行命令 cp ~/.ssh/id_rsa.pub authorized_keys
     •  验证  ssh localhost
     20.7  安装jdk
     •  执行命令rm -rf /usr/local/*  删除所有内容
     •  使用工具winscp把jdk文件从windows复制到/usr/local目录下
     •  执行命令 chomd u+x jdk-6u24-linux-i586.bin 授予执行权限
     •  执行命令 ./jdk-6u24-linux-i586.bin解压缩
     •  执行命令 mv jdk1.6.0_24 jdk 重命名
     •  执行命令vi /etc/profile 设置环境变量,增加了2行内容
          export JAVA_HOME=/usr/local/jdk
          export PATH=.:$JAVA_HOME/bin:$PATH
         执行source /etc/profile
     •  验证:java -version
     20.8  安装hadoop
     •  执行命令 tar –zxvf hadoop-1.1.2.tar.gz 进行解压缩
     •  执行命令mv hadoop-1.1.2 hadoop 重命名
     •  执行命令 vi /etc/profile 设置环境变量,增加了1行内容
          export HADOOP_HOME=/usr/local/hadoop 
          修改了1行内容
          export PATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH
          保存退出
          执行命令source /etc/profle让该设置立即生效
     •  修改hadoop的配置文件,位于$HADOOP_HOME/conf目录下
     修改4个配置文件,分别是hadoop-env.sh、core-site.xml、hadfs-site.xml、mapred-site.xml。具体内容看PPT P23
          【hadoop-env.sh的修改内容如下】
               export JAVA_HOME=/usr/local/jdk

          【core-site.xml的修改内容如下】
          <configuration>
                  <property>
                  <name>fs.default.name</name>
                  <value>hdfs://localhost:9000</value>
                  <description>change your own hostname</description>
                  </property>
                  <property>
                  <name>hadoop.tmp.dir</name>
                  <value>/usr/local/hadoop/tmp</value>
                  </property> 
          </configuration>

          【hdfs-site.xml的修改内容】
          <configuration>
                   <property>
                       <name>dfs.replication</name>
                       <value>1</value>
                   </property>
                   <property>
                       <name>dfs.permissions</name>
                      <value>false</value>
                   </property>
          </configuration>

     【mapred-site.xml的修改内容】
          <configuration>
                  <property>
                            <name>mapred.job.tracker</name>
                       <value>hadoop0:9001</value>
                  <description>change your own hostname</description>
                   </property>
          </configuration>

     •  执行命令hadoop namenode –format 对hadoop进行格式化
     •  执行命令start-all.sh进行启动
     •  验证:(1)执行命令jps,发现5个java进程,分别是NameNode、DataNode、SecondaryNameNode、JobTracker、TaskTracker。
     •   通过浏览器http://lcoalhost:50070 和 http://localhost:50030
     可以修改windows的C:\Windows\System32\drivers\etc\hosts文件******
     20.9  NameNode进程没有启动成功?
     •  没有格式化
     •  配置文件只copy,不修改
     •  hostname与ip没有绑定
     •  SSH的免密码登陆没有配置成功    
     20.10  多次格式化hadoop也是错误的?
     •  方法:删除/usr/local/hadoop/tmp文件夹,重新格式化,因为可能版本不一致。















第二天
1、课程安排
•  分布式文件系统与HDFS
•  HDFS体系结构与基本概念***
•  HDFS的shell操作***
•  java接口及常用api***
加深拓展
•  RPC调用**
•  HDFS的分布式存储架构的源码分析**

2、Distributed File System
•  数据量越来越多,在一个操作系统管辖的范围存不下了,那么就分配到更多的操作系统管理的磁盘中,但是不方便管理和维护,因此迫切需要一种系统来管理多台机器上的文件,这就是分布式文件管理系统。
•  是一种允许文件通过网络在多台主机上分享的文件系统,可让多机器上的多用户分享文件和存储空间。
•  通透性。让实际上是通过网络来访问文件的动作,由程序与用户看来,就像是访问本地的磁盘一般。
•  容错。即使系统中有些节点脱机,整体来说系统仍然可以持续运作而不会有数据损失。
•  分布式文件管理系统很多,hdfs只是其中一种。适用于一次写入多次查询的情况,不支持并发写情况小文件不合适。

3、HDFS的shell操作:
3.1对hdfs的操作方式:hadoop fs xxx
  hadoop fs -ls  /     查看hdfs的根目录下的内容的
  hadoop fs -lsr /     递归查看hdfs的根目录下的内容的
  hadoop fs -mkdir /d1     在hdfs上创建文件夹d1
  hadoop fs -put <linux source> <hdfs destination> 把数据从linux上传到hdfs的特定路径中         
  hadoop fs -get <hdfs source> <linux destination> 把数据从hdfs下载到linux的特定路径下
  hadoop fs -text <hdfs文件>     查看hdfs中的文件
  hadoop fs -rm          删除hdfs中文件
  hadoop fs -rmr          删除hdfs中的文件夹
  hadoop fs -ls hdfs://hadoop0:9000/
3.2、HDFS的datanode在存储数据时,如果原始文件大小 > 64MB,按照64MB大小切分;如果 < 64MB,只有一个block,占用磁盘空间是源文件实际大小。

4、Namenode
•  是整个文件系统的管理节点。它维护着整个文件系统的文件目录树,文件/目录的元信息和每个文件对应的数据块列表。接收用户的操作请求。
•  文件包括:
     •  fsimage:元数据镜像文件。存储某一时段NameNode内存元数据信息。
   •   edits:操作日志文件。
   •  fstime:保存最近一次checkpoint的时间。
•  以上这些文件是保存在linux的文件系统中。

5、SecondaryNameNode
•  HA的一个解决方案。但不支持热备。配置即可。
•  执行过程:从NameNode上下载元数据信息(fsimage,edits),然后把二者合并,生成信息的fsimage,在本地保存,并将其推送到NameNode,同时重置NameNode的edits。
•  默认在安装在NameNode节点上,但这样…不安全!

6、Datanode
•  提供真实文件数据的存储服务。
     •  文件块(block):最基本的存储单位。对于文件内容而言,一个文件的长度大小是size,那么从文件的0偏移开始,按照固定的大小,顺序对文件进行划分并编号,划分好的每一个块称一个Block。HDFS默认Block大小是64MB,以一个256MB文件,共有256/4=4个Block。
     •  不同于普通文件的系统的是,HDFS中,如果一个文件小于一个数据块的大小,并不占用整个数据块存储空间。
     •  Replication。多复本。默认是三个。

7、使用浏览器查看HDFS目录结构
http://localhost:50070   只能看不能写

8、使用java操作HDFS
Alt + Shift + M : 创建方法
Alt + Shift + L : 创建局部变量

例子1:
package hdfs;

import java.io.InputStream;
import java.net.URL;
import org.apache.hadoop.fs.FsUrlStreamHandlerFactory;
import org.apache.hadoop.io.IOUtils;

public class App1{
    public static final String HDFS_PATH = "hdfs://localhost:9000/hello";

         public static void main(String[] args) throws Exception{
         URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());
         final URL url = new URL(HDFS_PATH);
         final InputStream in = url.openStream();
         Object system;
          /*  @param in 输入流
         *   @param out  输出流
         *   @param buffSize  缓冲区大小
         *   @param close  是否关闭流
         */
         IOUtils.copyBytes(in,System.out ,1024,true);
     }
}


例子2:
package hdfs;
import java.net.URI;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;

/*使用一个类FileSystem*/
public class App2{
public static void main (String[] args) throws Exception{
public static final String HDFS_PATH = “hadfs://localhost:9000”
public static final String DIR_PATH =”/d1000”;
public static final String FILE_PATH = “/d1000/f1000”
final FileSystem fileSystem = FileSystem.get(new URI(HDFS_PATH),new Configuration());
//创建文件夹
fileSystem.mkdirs(new Path(DIR_PATH));

//上传文件
final FSDataOutputStream out = fileSystem.create(new Path(FILE_PATH));
final FileInputStream in = new FileInputStream(“c:/log.txt”);
IOUtils.copyBytes(in,out,1024,true);

//下载文件
final FSDataInputStream in = fileSystem.open(new Path(FILE_PATH));
IOUtils.copyBytes(in,System.out,1024,true);

//删除文件(夹)
fileSystem.delete(new Path(FILE_PATH),true);

}
}


9、RPC(remote procedure call)
     •  不同java进程间的对象方法的调用。
     •  一方称作服务端(server),一方称为客户端(client)。server端提供对象,供客户端调用的,被调用的对象的方法的执行发生在server端。
     •  RPC是hadoop框架运行的基础。
例子3:服务器端:
package rpc;
import org.apache.hadoop.ipc.VersionedProtocol;
public interface MyBizable extends VersionedProtocol{
    public static final Long VERSION = 2453245L;
    public abstract String hello(String name);
}

package rpc;

import java.io.IOException;
import org.apache.hadoop.ipc.VersionedProtocol;

public class MyBiz implements VersionedProtocol,MyBizablen{
     public String hello(String name){
        System.out.println(“我被调用了!”);
        return “hello”+name;
}
     public long getProtocolVersion(String protocol,long clientVersion) throws IOException{
     return MyBizable.VERSION;
}
}

package rpc;
import org.apache.hadoop.ipc.RPC;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.ipc.RPC.Server;


public class MyServer{
     public static final String SERVER_ADDRESS = “localhost”;
     public static final int SERVER_PORT = MyBizable.VERSION;

     public static void main(String[] args) throws Exception{
      /*
      * 构造一个RPC Server。
      * instance  实例中的方法会被客户端调用
      * binAddress 绑定的这个地址用于监听连接的到来
      * port 绑定的这个端口用于监听连接的到来
      *
        RPC.getServer(new MyBiz(), SERVER_ADDRESS,SERVER_PORT,new Configuration());
        server.start();

    }
}


例子4:客户端:
package rpc;

import org.apache.hadoop.ipc.RPC;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.ipc.RPC.VersionedProtocol;

public class MyClient{
public static void main(String[] args) throws Exception{
    /*构造一个客户端的代理对象。*/
   final MyBiz proxy =  (MyBizable)RPC.waitForProxy(MyBizable.class,234534343L,new InetSocketAddress(MyServer.SERVER_ADDRESS,MyServer.SERVER_PORT),new Configuration());
final String result = proxy.hello(“world”);
system.out.println(“客户端调用结果:”+result);

RPC.stopProxy(proxy);
}

}

9.1、通过rpc小例子获得的认识?
•  服务端提供的对象必须是一个接口,接口extends VersioinedProtocal
•  客户端能够的对象中的方法必须位于对象的接口中。

智传播客hadoop视频学习笔记(共2天)

标签:

原文地址:http://www.cnblogs.com/yangyquin/p/5017806.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!