Linux基本用法(基于Xshell5&Xftp5,hadoop)
(1)ls:查看当前目录下文件(夹)
(2)ls XX* :通配符*,查看当前目录下以XX开头的匹配文件
(3)cd XX:将目录切换到XX文件夹下
(4)vim XX.txt:查看XX.txt文件内容
(5):q!:退出vim查看
(6)less XX.txt:按行输出查看XX.txt文件内容
(7)enter+q:退出less查看
(8)cat XX.txt:对文件XX.txt做标准输出操作
(9)|:连接两个命令的管道命令
(10)python XX.py:执行python文件XX.py脚本命令
(11)sort:按首字母排序
(12)head -“数字” XX.txt:取文件XX.txt的前“数字”行
(13)rm XX.txt:删除文件XX.txt
由于本地没安装linux系统,远程连接了一个linux服务器,通过Xftp5传输了相关测试文件
利用rm测试了下删除命令
(14)cp XX.txt XX1.txt:复制文件XX.txt到XX1.txt
(15)mkdir FF:新建文件夹FF
(16)mr -rf /pathname :向下递归删除/pathname路径下的文件夹及相应文件夹内部文件
(17)clear:清命令行屏
(18)hadoop fs -ls /:利用hadoop框架平台“hadoop fs -”运行ls命令,“-”表示登录
(搭建远端hadoop平台待学习)
注意,hadoop fs -ls /显示的文件夹不在本地服务器上,而是在hadoop集群服务器上,对比ls可见没有相应“文件夹”(/apps,/spark-history,/sxydata,/tmp,user五个文件夹)
(19)hadoop fs -mkdir -p /JULY:hadoop fs -mkdir利用hadoop框架平台,递归地在根目录下创建文件夹/JULY
(20)hadoop fs -put text1.txt /JULY:hadoop fs -put 将本地服务器文件text.txt放到hadoop集群上/JULY文件夹下
注意,可以使用hadoop fs -cat /JULY/text1.txt查看上次文件text1.txt内容,但是在实际生成中由于上次文件text.txt过大,轻易不要使用cat命令
(21)hadoop fs -rmr /JULY: hadoop fs -rmr删除hadoop集群上的文件夹/JULY
(22)zip -r mydata.zip mydata #压缩mydata目录
把/home目录下面的mydata目录压缩为mydata.zip