- 博客(6)
- 收藏
- 关注
原创 Hadoop文件目录操作命令
hdfs dfs -copyToLocal [-p] [-ignoreCrc] [-crc] <HDFS路径> <本地文件路径>hdfs dfs -copyFromLocal [-f] [-p] [-l] <本地路径> <HDFS上的路径>hdfs dfs -copyFromLocal [-f] [-p] [-l] <本地路径> <HDFS上的路径>hdfs dfs -put [-f] [-p] <本地路径> <HDFS上的路径>hdfs dfs -get [-p] <HDFS路径> <本地文件路径>
2025-06-11 10:05:23
1748
原创 Hadoop集群启动问题
若以上方法还是缺少节点,便在删除data文件所有内容后,再删除logs文件所有内容,重新格式化。cat hadoop-root-所缺节点文件名。进入data文件删除文件下所有内容。查看所缺节点的.logs文件。若有错误则进入对应文件修改。进入logs日志文件。
2025-05-21 08:40:10
442
原创 Hadoop集群的搭建
在任意目录下输入:hadoop classpath,复制返回的信息,并添加到如下value标签中。添加hadoop为root用户,否则启动的HDFS的时候可能会报错.(博主在第26行多敲了一个空格,导致格式化报错,请大家注意!初次启动HDFS集群时,必须对主节点进行格式化处理。这里的data文件夹需要我们自己创建。三版本端口号默认8020。生效环境变量(都要)
2025-04-29 12:03:54
774
原创 搭建Hadoop平台时遇到的问题
cd /etc/sysconfig/network-scripts/ifcfg-ens33或ens32[tab键补全即可]--服务--必须保证vmauthdservice、wmnetDHCP、wmwareNATservice是开启状态。编辑--虚拟网络编辑器--查看V8子网地址,和本机地址比对前三个数字,必须一致才可以。虚拟网络编辑器--V8--DHCP左边的复选框勾上。未知的名称或服务---检查映射文件是否有问题。scp -r 文件 主机名:路径。ssh-copy-id 主机名。
2025-04-09 09:52:31
1660
原创 Hadoop平台搭建步骤---保姆级教程
2.配置完成后可以使用ping命令一一测试,看看是够能够正确解析出ip地址,得到目标机器的回应(可以每台机器都测试一下:使用Ctrl + C结束)5.将第一台机子master2上的jdk和hadoop的软件包及环境变量配置文件,传给slavea和slaveb。1.需要使用root用户修改 /etc/hosts 文件,dd删除原来的内容,在结尾直接追加内容。2.进入/opt/software目录下,解压jdk安装包到/opt/module。vi /etc/profile.d/my_env.sh插入内容。
2025-04-02 14:16:04
1705
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人