码迷,mamicode.com
首页 > 其他好文 > 详细

大数据集群启动

时间:2019-12-16 15:01:41      阅读:98      评论:0      收藏:0      [点我收藏+]

标签:sum   azkaban   --   imp   connect   nec   进程   文件   poi   

 

hadoop@master ~]$

1、hadoop 启动start-all.sh 停止 stop-all.sh

2、hive hive

3、zookeeper

cd /home/hadoop
启动 命令(每台机器都启动)
zookeeper-3.4.14/bin/zkServer.sh start 日志会在启动目录下 生成 zookeeper.out
查看状态命令
zookeeper-3.4.14/bin/zkServer.sh status

4、sqoop

验证 sqoop是否可用

sqoop import --connect jdbc:mysql://192.168.91.112:3306/bgdmysqldb --username root --password ‘2019_Mysql‘ --table dh_call_info2 --fields-terminated-by ‘\t‘ --num-mappers 1 --hive-import --hive-database rdw --hive-table dh_call_info2 --delete-target-dir

验证:select * from rdw.dh_call_info2;

5、azkaban

 

6、spark集群启动
启动hive的元数据服务# hive --service metastore
备注;jps 会出现一个名为“RunJar”的进程。

cd /home/hadoop/spark-244

bin/spark-sql --master yarn
use rdw;
select * from dh_call_info2;

7、habse集群

/home/hadoop/hbase-222/bin/start-hbase.sh
jps
39596 HMaster
39766 HRegionServer

cd /home/hadoop/hbase-222

bin/hbase shell

执行 get ‘t1‘,‘rowkey001‘, {COLUMN=>‘f1:col1‘}

8、kafka集群
启动 kafka 每台机器都启动
cd /home/hadoop/kafka-212-230

bin/kafka-server-start.sh config/server.properties

启动控制台生产者

bin/kafka-console-producer.sh --broker-list 192.168.91.112:9092 --topic topic_test1

启动控制台消费者
bin/kafka-console-consumer.sh --bootstrap-server 192.168.91.113:9092 --topic topic_test1 --from-beginning

在生产者控制台输入hello world


9、flink 集群

启动、flink集群
start-cluster.sh

jps
30436 StandaloneSessionClusterEntrypoint 主节点
29516 TaskManagerRunner 子节点


cd /home/hadoop/flink-191

运行示例 注意在【cd /home/hadoop/flink-191】目录下运行,否则可能找不到 文件
flink run examples/streaming/WordCount.jar

打开web管理页面
http://master:8091

关闭flink集群
stop-cluster.sh

大数据集群启动

标签:sum   azkaban   --   imp   connect   nec   进程   文件   poi   

原文地址:https://www.cnblogs.com/bjxdd/p/12048935.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!