hadoop常用命令

author author     2022-07-31     436

关键词:

1、查看Hadoop HDFS支持的所有命令

hdfs dfs

2、查看指定目录下内容

hdfs dfs –ls [文件目录]

eg:hdfs dfs –ls /user/hive

3、循环列出目录、子目录及文件信息

hdfs dfs –lsr [文件目录]

eg:hdfs dfs –lsr /user/hive

4、查看某个已存在文件

hdfs dfs –cat [file_path]

eg:hdfs dfs -cat /user/hive/data.txt

5、查看最后1KB的内容

hdfs dfs –tail [file_path]

eg:hdfs dfs –tail /user/hive/test.txt

6、将本地文件存储至hadoop

hdfs dfs –put [本地地址] [hadoop目录]

eg:hdfs dfs –put /home/tmp/file.txt /user/tmp

7、将hadoop上某个文件down至本地已有目录下

hdfs dfs -get [文件目录] [本地目录]

eg:hdfs dfs –get /user/tmp/ok.txt /home/tmp

8、删除hadoop上指定文件

hdfs dfs –rm [-r] [-f] [文件地址]

eg:hdfs dfs –rm /user/tmp/ok.txt

9、删除hadoop上指定文件夹(包含子目录等)

hdfs dfs –rm [-r] [-f] [目录地址]

eg:hdfs dfs –rmr /user/tmp

10、在hadoop指定目录内创建新目录

hdfs dfs –mkdir [Hadoop目录]

eg:hdfs dfs –mkdir /user/tmp

11、在hadoop指定目录下新建一个空文件

使用touchz命令:

hdfs dfs –touchz [file_path]

eg:hdfs dfs -touchz /user/new.txt

12、将hadoop上某个文件重命名

使用mv命令:

hdfs dfs –mv [file_path] [new_file_path]

eg:hdfs dfs –mv /user/test.txt /user/ok.txt (将test.txt重命名为ok.txt)

13、将hadoop指定目录下所有内容保存为一个文件,同时down至本地

hdfs dfs –getmerge [Hadoop目录] [本地目录]

eg:hdfs dfs –getmerge /user /home/t

14、将正在运行的hadoop作业kill掉

hdfs job –kill [job-id]

15、hdfs dfs –copyFromLocal test.txt /user/sunlightcs/test.txt

从本地文件系统复制文件到HDFS文件系统,等同于put命令

16、hdfs dfs –copyToLocal /user/sunlightcs/test.txt test.txt

从HDFS文件系统复制文件到本地文件系统,等同于get命令

17、hdfs dfs –chgrp [-R] /user/sunlightcs

修改HDFS系统中/user/sunlightcs目录所属群组,选项-R递归执行,跟linux命令一样

18、hdfs dfs –chown [-R] /user/sunlightcs

修改HDFS系统中/user/sunlightcs目录拥有者,选项-R递归执行

19、hdfs dfs –chmod [-R] MODE /user/sunlightcs

修改HDFS系统中/user/sunlightcs目录权限,MODE可以为相应权限的3位数或+/-{rwx},选项-R递归执行

20、hdfs dfs –count [-q] PATH

查看PATH目录下,子目录数、文件数、文件大小、文件名/目录名

21、hdfs dfs –cp SRC [SRC …] DST     

将文件从SRC复制到DST,如果指定了多个SRC,则DST必须为一个目录

22、hdfs dfs –du PATH

显示该目录中每个文件或目录的大小

23、hdfs dfs –dus PATH

类似于du,PATH为目录时,会显示该目录的总大小

24、hdfs dfs –expunge

清空回收站,文件被删除时,它首先会移到临时目录.Trash/中,当超过延迟时间之后,文件才会被永久删除

25、hdfs dfs –getmerge SRC [SRC …] LOCALDST [addnl]    

获取由SRC指定的所有文件,将它们合并为单个文件,并写入本地文件系统中的LOCALDST,选项addnl将在每个文件的末尾处加上一个换行符

26、hdfs dfs –touchz PATH 

创建长度为0的空文件

27、hdfs dfs –test –[ezd] PATH   

对PATH进行如下类型的检查:

-e PATH是否存在,如果PATH存在,返回0,否则返回1

-z 文件是否为空,如果长度为0,返回0,否则返回1

-d 是否为目录,如果PATH为目录,返回0,否则返回1

28、hdfs dfs –text PATH

显示文件的内容,当文件为文本文件时,等同于cat,文件为压缩格式(gzip以及hadoop的二进制序列文件格式)时,会先解压缩

29、hdfs dfs –help ls

查看某个[ls]命令的帮助文档

学习笔记hadoop——hadoop基础操作(代码片段)

文章目录一、Hadoop安全模式1.1、HDFS启动日志分析1.2、Safemode进入方式二、Hadoop集群基本信息三、HDFS常用Shell操作3.1、HDFS文件系统3.2、常用Shell命令-appendToFile3.3、常用Shell命令-cat3.4、常用Shell命令-copyFromLocal|put3.5、常用Shell命令-cp3... 查看详情

hadoop常用命令

1.常用命令hdfsdfs-ls/创建目录命令,逐级循环查看文件hadoopfs-ls-R/tmphdfsfs-mkdir-p/user/root/input修改所属组及用户hadoopfs-chown-Rroot:root/user/root/input统计文件数文件夹数 文件大小hadoopfs-count/从linux上传文件到hadoophadoopfs-putfile01/us 查看详情

hadoop应用实战100讲-hadoop常用命令汇总

...程(附源码)tableau可视化数据分析高级教程一.HDFS命令行Hadoophelp命令的使用1.hadoop-help查询所有HadoopShell支持的命令2.distcp这是Hadoop下的一个分布式复制程序,可以在不t同的HDFS集群 查看详情

docker入门之二:docker常用命令(代码片段)

...进入容器删除容器1.docker常用命令1.1.基本命令获取镜像[hadoop@hadoop101docker]$dockerpullubuntu:16.04运行镜像[hadoop@hadoop101docker]$dockerrun-it--rmubuntu:16.04bash[hadoop@hadoop101docker]$exit参数说明:-it-i:交互式操作;-t:表示终端-rm退出容器后删除... 查看详情

hadoop常用命令

http://localhost:50070(localhost也可是master的ip)jps//OS级查看hadoop进程二、文件操作Hadoopfs选项(应用较广,包括本地文件系统),推荐hdfs对应命令dfsbin/hdfsdfsadmin–report//查看节点运行状态bin/hdfsdfs-mkdir/t2//在hdfs根目录创建子目录t2bi... 查看详情

hadoop常用命令

1、查看HadoopHDFS支持的所有命令hdfsdfs2、查看指定目录下内容hdfsdfs–ls[文件目录]eg:hdfsdfs–ls/user/hive3、循环列出目录、子目录及文件信息hdfsdfs–lsr[文件目录]eg:hdfsdfs–lsr/user/hive4、查看某个已存在文件hdfsdfs–cat... 查看详情

hadoop常用管理员命令

hadoopjob-list列出正在运行的jobhadoopjob-killkill掉jobhadoopfsck检查HDFS坏快hadoopdfsadmin-report检查HDFS状态包括NN信息hadoopdfsadmin-safemodeenter|leave安全模式的进出hadoopdistcpURL集群之间的拷贝./bin/start-balancer.sh平衡集群文件 查看详情

hadoop高可用ha开发常用linux命令(代码片段)

HA开发常用Linux命令手动故障转移配置手动故障转移配置在module文件夹下,新建HA目录:mkdirHA拷贝hadoop文件夹到HA中:cp-rhadoop-2.7.2/HA/删除配置data/logs/rm-rfdata/logs/启动hadoopsbin/hadoop-daemon.shstartjournalnode-hadoop102.out 查看详情

hadoop高可用ha开发常用linux命令(代码片段)

HA开发常用Linux命令手动故障转移配置手动故障转移配置在module文件夹下,新建HA目录:mkdirHA拷贝hadoop文件夹到HA中:cp-rhadoop-2.7.2/HA/删除配置data/logs/rm-rfdata/logs/启动hadoopsbin/hadoop-daemon.shstartjournalnode-hadoop102.out 查看详情

hadoop开发常用linux命令整理(代码片段)

Linux命令整理集群崩溃处理办法HDFS_Shell命令MavenShuffle机制Hadoop压缩Hadoop生产调优手册配置白名单服役新服务器服务器间数据均衡黑名单退役服务器纠删码更改文件夹所属用户:sudochownzs:zsmodule/software/查看安装的Java版本:r... 查看详情

hadoop常用shell命令怎么用

参考技术A一、常用的hadoop命令1、hadoop的fs命令#查看hadoop所有的fs命令1hadoopfs#上传文件(put与copyFromLocal都是上传命令)12hadoopfs-putjdk-7u55-linux-i586.tar.gzhdfs://hucc01:9000/jdkhadoopfs-copyFromLocaljdk-7u55-linux-i586.tar.gzhdfs://hucc01:9000/jdk#下载命... 查看详情

大数据:hadoop文件操作hdfs常用命令(代码片段)

大数据:Hadoop文件操作HDFS常用命令(一) 1、创建目录。在HDFS中创建一个文件目录:hadoopdfs-mkdir 2、查看文件结构目录:hdfsdfs-ls-R/例如,在HDFS中创建一个test_dir的文件目录,然后查看: 如果查看... 查看详情

hadoop3.1.3的yarn常用命令yarnnode查看节点状态(代码片段)

1、yarnapplication查看任务Yarn状态的查询,除了可以在hadoop21:8088页面查看外,还可以通过命令操作。常见的命令操作如下所示:1.1、列出所有Application:[kgf@hadoop21hadoop-3.1.3]$yarnapplication-list2022-06-1414:21:19,003IN 查看详情

hadoop技术栈之linux常用基础命令系统命令

Spark是大数据体系的明星产品,是一款高性能的分布式内存迭代计算框架,可以处理海量规模的数据。下面就带大家一起来开始学Spark!▼往期内容汇总:大数据导论Linux操作系统概述VMwareWorkstation虚拟机使用一、Li... 查看详情

hdfsdfs-linux常用命令练习

1.先查看环境:[hadoop@hadoop001~]$jps22673SecondaryNameNode22502DataNode22396NameNode24397Jps2.命令练习:2.1查看目录[hadoop@hadoop001~]$hdfsdfs-ls/Found5itemsdrwxr-xr-x -hadoopsupergroup     02021-12-0123:16/inputdrwxr-xr-x -hadoopsupergroup     02021-12-... 查看详情

hadoop中常用的命令

参考技术A1、查看指定目录下内容hadoopdfs–ls[文件目录]eg:hadoopdfs–ls/user/wangkai.pt2、打开某个已存在文件hadoopdfs–cat[file_path]eg:hadoopdfs-cat/user/wangkai.pt/data.txt3、将本地文件存储至hadoophadoopfs–put[本地地址][hadoop目录]hadoopfs–put/home/t... 查看详情

学习笔记hadoop——hadoop基础操作——mapreduce常用shell操作mapreduce任务管理(代码片段)

四、MapReduce常用Shell操作4.1、MapReduce常用ShellMapReduceShell此处指的是可以使用类似shell的命令来直接和MapReduce任务进行交互(这里不严格区分MapReduceshell及Yarnshell)。提交任务命令:yarnjar<jar>[mainClass]args...查看及修... 查看详情

❤️hadoop常用命令总结及百万调优❤️(代码片段)

2、常用命令1、–ls:查看指定目录下内容hadoopfs–ls[文件目录]eg:hadoopfs–ls/user/wangwu2、–cat:显示文件内容hadoopdfs–cat[file_path]eg:hadoopfs-cat/user/wangwu/data.txt3、–put:将本地文件存储至hadoophadoopfs–put[本 查看详情