一、实验目的
1、掌握HDFS文件上传与下载的具体命令。
2、掌握HDFS文件管理的基本操作。
二、HDFSShell操作学习
1.准备工作
(1)启动Hadoop集群
start-all.sh
(2)-help:输入这个命令参数的帮助信息
hadoop fs -help rm
(3)查看所有命令
hadoop fs
(4) 创建/sanguo文件夹
cd /opt/software/hadoop-2.6.5 ##按照自己文件的路径去进入hadoop文件夹
hadoop fs -mkdir /sanguo
我们查看namenode节点端口来查看是否成功创建,结果如下
Namenode主节点的端口(http://192.168.36.128:50070)
Namenode:管理文件系统的命名空间和元数据,同时也控制着文件数据块的分布
2、上传命令学习
(1)-moveFromLocal:从本地剪切粘贴到HDFS
(注意:该命令剪切粘贴后本地创建的文件就没有了)
vim shuguo.txt
输入:shuguo
hadoop fs -moveFromLocal ./shuguo.txt /sanguo
查看sanguo目录下的文件
查看HDFS中的具体内容 查看本地文件
(2)-copyFromLocal:从本地文件系统中拷贝文件到HDFS路径去
(因为是复制所有本地文件还存在,创建后可以使用命令ll查看)