Mac配置本地hadoop

本文详细介绍了如何在Mac OS X系统上安装和配置Hadoop环境。包括下载Hadoop、设置环境变量、配置Hadoop参数等步骤,并解决了可能出现的问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Mac配置本地hadoop

这学期要学习大数据,于是在自己的mac上配置了hadoop环境。由于Mac是OSX系统,所以配置方法跟Linux类似

一、下载hadoop

官网下载压缩包。

$ll
total 598424
-rwxrwxrwx@ 1 fanghao  staff   292M  3  4 23:16 hadoop-3.0.0.tar.gz

解压

tar -xzvf hadoop-3.0.0.tar.gz

二、设置环境变量

vim ~/.bash_profile
export HADOOP_HOME=/Users/fanghao/someSoftware/hadoop-3.0.0
export HADOOP_HOME_WARN_SUPPRESS=1
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

使环境变量生效

source ~/.bash_profile

三、配置hadoop自己的参数

进入hadoop-3.0.0/etc/hadoop

1. 配置hadoop-env.sh

# The java implementation to use. By default, this environment
# variable is REQUIRED on ALL platforms except OS X!
export JAVA_HOME=/Library/Java/JavaVirtualMachines/jdk1.8.0_111.jdk/Contents/Home

这里写了OSX不必须加这一行,加了也没事

2. 配置core-site.xml

指定临时数据文件夹,指定NameNode的主机名和端口

<!-- Put site-specific property overrides in this file. -->
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>

    <property>
        <name>hadoop.tmp.dir</name>
        <value>/Users/fanghao/someSoftware/hadoop-3.0.0/data/</value>
    </property>
</configuration>

3. 配置hdfs-site.xml

指定HDFS的默认参数副本,因为是单机运行,所以副本数为1

<!-- Put site-specific property overrides in this file. -->

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>

4. 配置mapred-site.xml

指定使用yarn集群框架

<!-- Put site-specific property overrides in this file. -->
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

5. 配置yarn-site.xml

<configuration>
  <!-- Site specific YARN configuration properties -->
  <property>
    <name>yarn.resourcemanager.hostname</name>
    <value>localhost</value>
  </property>

  <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
  </property>
</configuration>

四、启动

先格式化

hadoop namenode -format

然后执行hadoop-3.0.0/sbin中的系统脚本

start-dfs.sh # 启动DataNode、NameNode、SecondaryNameNode
start-yarn.sh # 启动NodeManager、ResourceManager

jps命令可以查看这些JVM上的进程

6178 NodeManager
6083 ResourceManager
6292 Jps
5685 DataNode
5582 NameNode
5822 SecondaryNameNode

查看HDFS

用浏览器登录http://localhost:9870/

1146398-20180305110657671-22994826.png

这里要注意的是,在hadoop3.0.0中,这里的端口号改成了9870,不是2.x的50070,官网上有issue

The patch updates the HDFS default HTTP/RPC ports to non-ephemeral ports. The changes are listed below:
Namenode ports: 50470 --> 9871, 50070 --> 9870, 8020 --> 9820
Secondary NN ports: 50091 --> 9869, 50090 --> 9868
Datanode ports: 50020 --> 9867, 50010 --> 9866, 50475 --> 9865, 50075 --> 9864 

可能遇到的问题

hadoop的集群控制是通过ssh实现的,因此要在系统偏好设置->共享->远程登录设置成允许

转载于:https://www.cnblogs.com/fanghao/p/8507912.html

Mac M1(搭载Apple Silicon架构的Mac配置Hadoop需要一些特殊的步骤,因为Hadoop原生并不支持ARM架构。以下是大致的安装过程: 1. **安装Homebrew**: 首先,你需要通过Homebrew这个包管理工具来安装依赖。在终端中运行: ``` /bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)" ``` 2. **安装Java**: Hadoop需要Java环境,由于M1上推荐使用Zulu JDK(支持Apple Silicon),你可以这样做: ```sh brew cask install adoptopenjdk export JAVA_HOME=$(brew --prefix adoptopenjdk) export PATH="$JAVA_HOME/bin:$PATH" ``` 3. **安装Linux子系统(Subsystem for Linux, SLURM)**: 为了能在Mac上运行Hadoop,通常会使用Linux子系统。使用`arch -x86_64 sh -c "$(curl -fsSL https://get.docker.com)" ``` 4. **安装Minikube (轻量级的Kubernetes集群) with Docker Desktop**: Minikube可以帮助你在本地搭建一个Hadoop集群,命令行中运行安装: ```sh brew install minikube minikube start --driver=docker --memory=8096 --cpus=4 --kubernetes-version=v1.24.0 ``` 5. **下载并解压Hadoop**: 使用Linux子系统的bash,从Apache网站下载Hadoop源码,然后解压: ```sh docker run -it --rm --volume $PWD:/data hadoop:latest bash tar xvf hadoop-x.x.x.tar.gz ``` 6. **构建和配置Hadoop**: 进入Hadoop目录,按照说明配置HDFS和MapReduce。这通常涉及到修改`core-site.xml`, `hdfs-site.xml`, 和 `mapred-site.xml` 文件。 7. **运行Hadoop服务**: 完成配置后,启动Hadoop的服务,例如启动NameNode、DataNode等。 请注意,这是一个简化版本的步骤,实际部署可能需要更多调整和安全设置。另外,由于性能限制,直接在Mac M1上运行大规模的Hadoop可能会受限,更适合测试和开发环境。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值