安装、配置、启动Spark集群
在 master 节点操作
(1)切换到 /opt 目录下
cd /opt/
(2)在官网下载spark的安装包,并上传至服务器上
(3)解压 spark 文件到当前目录(/opt)下面,使用相对路径或者绝对路径均可,下面的命令使用绝对路径
tar -zxvf spark-2.2.0-bin-hadoop2.7.tgz -C /opt
(4)给Spark文件重命名为spark-2.2.0
mv spark-2.2.0-bin-hadoop2.7 spark-2.2.0
(5)配置环境变量,编辑 /etc/profile 文件,在文件最后添加 spark 路径
vim /etc/profile
export SPARK_HOME=/opt/spark-2.2.0
export PATH=$SPARK_HOME/bin:$SPARK_HOME/sbin:$PATH