博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
大数据之HDFS命令行基本操作
阅读量:6147 次
发布时间:2019-06-21

本文共 3448 字,大约阅读时间需要 11 分钟。

1、 课程简介

  • HDFS是Hadoop大数据平台中的分布式文件系统,为上层应用或其他大数据组件提供数据存储,如Hive,Mapreduce,Spark,HBase等。
  • 本文章中所有命令均在CentOS-6.4-x86_64,hadoop-2.5.2,jdk1.8.0_152,zookeeper-3.4.11中运行通过,为减少linux权限对初学者造成影响,所有命令均在linux的root权限下进行操作。

2、理论回顾

  • Hadoop技术本身包含HDFS、Map/Reduce。HDFS作海量数据存储之用;M/R作海量数据计算之用。
  • HDFS包含namenode、datanode。namenode对datanode中的数据建立了索引。
  • zookeeper作为协调服务,为namenode提供了高可用性。

3、基本操作

​ 注意:"# ./hdfs dfs -ls /"命令前的"#"代表当前登录用户是root。运行路径位于hadoop目录中的bin文件夹下。命令中的"."代表当前目录。命令中涉及的info文件需要提前创建好。如下图所示:

大数据之HDFS命令行基本操作

3.1 -ls 功能:显示目录信息。

# ./hdfs dfs -ls /drwxr-xr-x   - root supergroup          0 2018-07-30 00:09 /hbasedrwxr-xr-x   - root supergroup          0 2018-06-23 15:22 /outputdrwx------   - root supergroup          0 2018-07-31 00:32 /tmpdrwxr-xr-x   - root supergroup          0 2018-07-31 00:41 /user-rw-r--r--   2 root supergroup         77 2018-04-22 02:34 /wordcount

3.2 -mkdir 功能:在HDFS文件系统上创建目录。

# ./hdfs dfs -mkdir /wanhe# ./hdfs dfs -ls /drwxr-xr-x   - root supergroup          0 2018-07-30 00:09 /hbasedrwxr-xr-x   - root supergroup          0 2018-06-23 15:22 /outputdrwx------   - root supergroup          0 2018-07-31 00:32 /tmpdrwxr-xr-x   - root supergroup          0 2018-07-31 00:41 /userdrwxr-xr-x   - root supergroup          0 2018-09-12 18:00 /wanhe-rw-r--r--   2 root supergroup         77 2018-04-22 02:34 /wordcount

3.3 -put 功能:上传本地文件到HDFS指定目录。

# ./hdfs dfs -put info /wanhe# ./hdfs dfs -ls /wanhe-rw-r--r--   2 root supergroup         38 2018-09-12 18:10 /wanhe/info

3.4 -get 功能:从hdfs下载文件到本地。

# rm -rf info# lscontainer-executor  hadoop  hadoop.cmd  hdfs  hdfs.cmd  mapred  mapred.cmd  rcc  test-container-executor  yarn  yarn.cmd# ./hdfs dfs -get /wanhe/info ./# lscontainer-executor  hadoop  hadoop.cmd  hdfs  hdfs.cmd  info  mapred  mapred.cmd  rcc  test-container-executor  yarn  yarn.cmd

3.5 -rm 功能:从HDFS删除文件。

# ./hdfs dfs -rm /wanhe/info# ./hdfs dfs -ls /wanhe空

3.6 -moveFromLocal 功能:剪切本地文件到HDFS

# ./hdfs dfs -moveFromLocal info /wanhe# ./hdfs dfs -ls /wanhe-rw-r--r--   2 root supergroup         38 2018-09-12 22:04 /wanhe/info# lscontainer-executor  hadoop  hadoop.cmd  hdfs  hdfs.cmd  mapred  mapred.cmd  rcc  test-container-executor  yarn  yarn.cmd

3.7 -cat 功能:显示文件内容。

# ./hdfs dfs -cat /wanhe/info jiangsuwanhe

3.8 -appendToFile 功能:在文件末尾追加数据。

# ./hdfs dfs -appendToFile info /wanhe/info # ./hdfs dfs -cat /wanhe/info jiangsuwanhe jiangsuwanhe

3.9 -chmod 功能:更改文件所属权限。

# ./hdfs dfs -ls /wanhe-rw-r--r--   2 root supergroup         51 2018-09-12 22:13 /wanhe/info# ./hdfs dfs -chmod 777 /wanhe/info# ./hdfs dfs -ls /wanhe-rwxrwxrwx   2 root supergroup         51 2018-09-12 22:13 /wanhe/info

3.10 -cp 功能:实现文件的拷贝。

将/wanhe/info拷贝到/tmp下:# ./hdfs dfs -cp /wanhe/info /tmp/# ./hdfs dfs -ls /tmp-rw-r--r--   2 root supergroup         51 2018-09-12 22:20 /tmp/info

3.11 -mv 功能:移动文件。

将/wanhe/info移动到 /user下# ./hdfs dfs -mv /wanhe/info /user/# ./hdfs dfs -ls /wanhe空# ./hdfs dfs -ls /user-rwxrwxrwx   2 root supergroup         51 2018-09-12 22:13 /user/info

3.12 -df 功能:统计文件系统的可用空间信息。

# ./hdfs dfs -df -h /Filesystem            Size   Used  Available  Use%hdfs://master:9000  17.5 G  352 K     11.4 G    0%

3.13 -du 功能:统计文件夹的大小信息。

# ./hdfs dfs -du /user51  /user/info

3.14 -count 功能: 统计一个指定目录下的文件数量。

# ./hdfs dfs -count /user 2            1                 51 /user 第一列2表示/user/下文件夹的数量,第二列1表示/user/下文件的个数。51表示/user/目录下所有文件占用的磁盘容量(不计算副本个数)。

4、总结

​ HDFS中的命令行操作类似于linux命令,熟练使用linux命令便可以熟练的使用命令行操作HDFS。后面我们将连载大数据系列博客,欢迎关注和交流。

转载于:https://blog.51cto.com/13477015/2175037

你可能感兴趣的文章
邮件营销整体解决方案
查看>>
借助工具Profwiz进行加域及账户配置文件迁移
查看>>
09-OSPF故障排查总结
查看>>
ORACLE 10g 下载地址列表
查看>>
使用ManageEngine NetFlow Analyzer监控netflow
查看>>
Struts2 漏洞彻底解决办法
查看>>
暖心的回复
查看>>
6月又过去一大半了。
查看>>
分布式文件系统MogileFS介绍
查看>>
使用Python实现Hadoop MapReduce程序
查看>>
python内置函数2-classmethod()
查看>>
python内置函数5-getattr()
查看>>
win2008重新生成SID
查看>>
通过PXE部署系统时报错 0xc000000f
查看>>
修改计算机MAC地址(win7)
查看>>
linux下如何挂接(mount)光盘镜像文件、移动硬盘、U盘、Windows网络共享和NFS网络共享...
查看>>
shell逻辑控制语句之case
查看>>
2016.03.29///Java学习记录③
查看>>
MySQL触发器使用详解
查看>>
Oledb 参数
查看>>