Hadoop核心组件:四步通晓HDFS

Hadoop核心组件:四步通晓HDFS

Hadoop分布式文件系统(HDFS)被设计成适合运行在通用硬件上的分布式文件系统,它提供高吞吐量来访问应用程序的数据,适合那些有着超大数据集的应用程序,那么在实际应用中我们如何来操作使用呢?

一、HDFS操作方式:

1、  命令行操作

FsShell
$ hdfs dfs

Hadoop核心组件:四步通晓HDFS

2、 其他的计算框架-如spark

通过URI,比如: hdfs://nnhost:port/file…,调用HDFS的协议、主机、端口或者对外提供的服务媒、以及文件,在spark的程序中实现对HDFS的访问。

Hadoop核心组件:四步通晓HDFS

 

3、  其他程序:

(1)Java的API,借助于其他的一些计算框架或者分析工具都可以访问HDFS,如Sqoop加载数据到HDFS,Flume加载日志到HDFS,Impala基于HDFS进行查询

(2)REST API:通过HTP的方式访问HDFS。

Hadoop核心组件:四步通晓HDFS

 

二、重点关注HDFS命令行的方式:

    (1)从本地磁盘拷贝文件foo.txt到HDFS的用户目录

Hadoop核心组件:四步通晓HDFS

   文件将会拷贝到/user/username/foo.txt

(2)获取用户home目录的目录列表

Hadoop核心组件:四步通晓HDFS

(3)获取HDFS的根目录

Hadoop核心组件:四步通晓HDFS

(4)显示HDFS文件/user/fred/bar.txt内容

Hadoop核心组件:四步通晓HDFS

(5)拷贝文件到本地磁盘,命名为baz.txt

Hadoop核心组件:四步通晓HDFS

(6)在用户home目录下创建input目录

Hadoop核心组件:四步通晓HDFS

     (7)删除input_old目录和所有里面的内容

Hadoop核心组件:四步通晓HDFS

 

三、通过HUe进行操作。

通过File Browser可以浏览和管理HDFS的目录和文件,也可以创建、移动、重命名、修改、上传、下载和删除目录和文件,以及查看文件内容

Hadoop核心组件:四步通晓HDFS

 

四、HDFS推荐

HDFS是所有数据的仓库,在使用HDFS的时候应该对其目录(如日志目录、数据目录)进行合理地规划和组织。最佳实践方式是定义标准目录结构以及把阶段临时的数据分开。规划示例如下:

(1)/user-用户目录,存放属于个别用户的数据和配置信息

(2)/etl-ETL阶段的数据

(3)/tmp-临时生成的用户在用户间共享的数据

(4)/data-整个组织用来分析的和处理的数据集

(5)/app-非数据文件,比如:配置文件,JAR文件,SQL文件等

 

 

    掌握以上四步对于应用HDFS有着重要的作用和意义,但是大家应该根据自己的情况循序渐进,注重实践,才可以不断取得进步。我平时喜欢找一些案例进行分析,从而锻炼提升自己的技能,这个比较喜欢“大数据cn ”这个微信服务平台。但是真知更多源于实践,只有学习和了解他人的经验,才可以走的更高更远,我爱关注微信订阅号“大数据时代学习中心”,研究各位数据大牛的经验分享,对于促进我个人的技术成长有着非凡的意义。