如何搭建Spark YARN模式的集群

如何搭建Spark YARN模式的集群

- 节点规划:1个主节点(Master)+ N个工作节点(Worker),需安装Java、Hadoop、Spark。

- 配置YARN:修改Hadoop的 yarn-site.xml ,启用ResourceManager和NodeManager。

 

Spark配置

 

1. 修改Spark参数

- 编辑 conf/spark-env.sh ,添加:

export HADOOP_CONF_DIR=/path/to/hadoop/conf  

export SPARK_MASTER_IP=主节点IP  

 

2. 配置 slaves 文件

- 在 conf/slaves 中列出所有Worker节点IP(每行一个)。

 

启动集群

1. 启动Hadoop:

start-dfs.sh # 启动HDFS  

start-yarn.sh # 启动YARN  

 

2. 启动Spark集群:

./sbin/start-all.sh # 在主节点执行  

验证

- 访问YARN界面(默认端口8088),查看Spark应用队列。

- 提交测试任务:

spark-submit --master yarn --class org.apache.spark.examples.SparkPi /path/to/spark-examples.jar 10  

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值