码迷,mamicode.com
首页 > 其他好文 > 详细

寒假学习第三天

时间:2020-02-05 00:00:07      阅读:97      评论:0      收藏:0      [点我收藏+]

标签:文件   mod   http   创建   查看   文件夹   页面   hdf   配置环境变量   

今天进行了Spark的安装。

1.1 下载安装包
进入Scala下载页面,下拉,找到tgz包

技术图片

 

 

右击,复制链接如下
https://downloads.lightbend.com/scala/2.11.12/scala-2.11.12.tgz
在master的命令行中输入:
wget https://downloads.lightbend.com/scala/2.11.12/scala-2.11.12.tgz

2 安装Spark
2.1 下载安装包

复制结果如下:http://mirrors.shu.edu.cn/apache/spark/spark-2.4.0/spark-2.4.0-bin-hadoop2.7.tgz
输入命令:wget http://mirrors.shu.edu.cn/apache/spark/spark-2.4.0/spark-2.4.0-bin-hadoop2.7.tgz


2.2 解压
输入命令:tar zxf spark-2.4.0-bin-hadoop2.7.tgz

2.3 迁移目录
输入命令:sudo mv spark-2.4.0-bin-hadoop2.7 /usr/local/spark/

2.4 配置环境变量
输入命令:sudo gedit ~/.bashrc
添加如下配置
使配置生效,输入命令:source ~/.bashrc

3.1HDFS常用操作
上传文件
  hdfs dfs -put src… dest (从本地的src位置上传到HDFS的dest位置,src可以有多个,空格隔开)

复制文件
  hdfs dfs -copyFromLocal src… dest (复制文件,从src位置复制到dest 位置,src可以有多个,空格隔开)

移动文件(剪切)
  hdfs dfs -moveFromLocal src… dest (移动文件,从src移动到dest位置)
 
创建新目录
  hdfs dfs -mkdir /test
  hdfs dfs -mkdir -p /test/luo (级联创建)

往文件中追加信息
  hdfs dfs -appendToFile cba /test/t1 (把cba的内容追加到/test文件夹下的t1文件中)

查看文件内容
  hdfs dfs -cat /test/t1 (查看/test文件夹下的t1文件)

更改文件的属组
  hdfs dfs -chgrp nb /test/t1 (把t1 文件的属组改为nb)
  hdfs dfs -R -chgrp nb /test/t1 (递归修改)

更改文件的权限
  hdfs dfs -chmod -R 777 /luo (/luo的权限改为777)

更改文件的属主及属组
  hdfs dfs -chown -R luo:zzz /luo

将HDFS上的文件复制到本地
  hdfs dfs -copyToLocal /t1 ./

查看文件系统的磁盘空间
  hdfs dfs -df -h /

寒假学习第三天

标签:文件   mod   http   创建   查看   文件夹   页面   hdf   配置环境变量   

原文地址:https://www.cnblogs.com/lishengming00/p/12261947.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!