标签:nohup name 大数据 kafka top ast 客户端 日志 开启
三个节点都安装了tomcat
启动tomcat
cd /usr/tomcat/apache-tomcat-7.0.57/bin/
./startup.sh
停止tomcat
./shutdown.sh
查看tomcat日志信息
tail -200f /usr/tomcat/apache-tomcat-7.0.57/logs/catalina.out
hadoop01节点启动并访问nginx
# 1. 进入到nginx 安装目录
cd /usr/local/nginx/
# 2. 进入到 sbin目录,执行 nginx 命令
cd sbin/
./nginx 启动
./nginx -s stop 关闭
./nginx -s reload 重启
./nginx -s reload 重新加载配置文件
ps aux | grep nginx 查看进程
非高可用集群
hadoop01节点启动hdfs,启动命令如下:
# 配置了环境变量
# 启动命令
start-dfs.sh
# 关闭命令
stop-dfs.sh
hadoop03启动yarn,启动命令如下:
# 配置了环境变量
# 启动命令
start-yarn.sh
# 关闭命令
stop-yarn.sh
启动历史服务器
mr-jobhistory-daemon.sh start historyserver
mysql安装在hadoop03节点,是开机自动启动的。如果需要手动启动,命令如下:
# 查看mysql服务状态
systemctl status mysqld
# 启动mysql
systemctl start mysqld
# 关闭mysql
systemctl staop mysqld
用户名和密码
hive 12345678
root 12345678
hive的log默认存放在 /tmp/root 目录下
在hadoop03节点开启元数据服务,命令如下:
nohup hive --service metastore &
然后在hadoop02节点启动hive客户端,命令如下:
# 配置了环境变量
hive
启动命令
flume-ng agent --conf conf --conf-file /home/hadoop/app/flume/conf/test_intereptor_01 --name a1 -Dflume.root.logger=INFO,console
# --conf:配置文件所在位置
# --conf-file:定义source,channel,sink的agent配置文件所在位置
# --name:定义的agent名字
在hadoop01节点的/root/shells/
目录下执行脚本,群起zookeeper集群,命令如下:
# 启动zookeeper
sh zk.sh start
# 查看zookeeper状态
sh zk.sh status
# 关闭zookeeper
sh zk.sh stop
进入shell客户端
进入到zookeeper安装目录,cd /opt/lagou/servers/zookeeper-3.4.14/bin
,执行命令./zkCli.sh
数据存放目录:dataDir=/opt/lagou/servers/zookeeper-3.4.14/data
主节点是hadoop01和hadoop02节点
在hadoop01节点执行启动命令,命令如下:
# 配置了环境变量
# 启动命令
start-hbase.sh
# 关闭命令
stop-hbase.sh
hadoop01和hadoop03节点先启动exec-server,命令如下:
# /opt/lagou/servers/azkaban/azkaban-exec-server-0.1.0-SNAPSHOT目录下
# 启动
bin/start-exec.sh
# 关闭
bin/shutdown-exec.sh
hadoop02节点再启动web-server,命令如下:
# /opt/lagou/servers/azkaban/azkaban-web-server-0.1.0-SNAPSHOT目录下
# 启动
bin/start-web.sh
# 关闭
bin/shutdown-web.sh
hadoop01节点启动,启动命令如下:
# /usr/redis/bin 目录下
# 后台启动
./redis-server redis.conf
# 后台关闭
./redis-cli shutdown
打开客户端
./redis-cli
单机kafka
hadoop01节点启动,进入kafka安装目录/opt/lagou/servers/kafka_2.12-1.0.2/
,启动命令如下:
# 配置了环境变量
kafka-server-start.sh ./config/server.properties
kafka日志存放目录
/var/lagou/kafka/kafka-logs
标签:nohup name 大数据 kafka top ast 客户端 日志 开启
原文地址:https://www.cnblogs.com/kyle-blog/p/14414428.html