[1].Spark 学习笔记 使用java ---word count

本文详细介绍使用Java实现Spark WordCount的过程,包括环境配置、代码实现等关键步骤,并解释了涉及的主要数据结构和方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

准备写一个系列的笔记,记录自己学习spark的过程,因为公司使用的是java语言,所以本系列的博客都是以java语言实现的,欢迎拍砖。有更好的实现方法,请告诉我,一起学习。

1 环境配置

在本地使用java写spark程序,只需要配置好jdk环境,新建一个maven项目,在pom中添加如下依赖:

  <dependencies>
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-mllib_2.10</artifactId>
            <version>1.6.2</version>
        </dependency>
    </dependencies>

2 使用java实现的Spark 版本的word count

程序很简单,直接给出代码:

package RDD;

import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaPairRDD;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.api.java.function.Function2;
import org.apache.spark.api.java.function.PairFlatMapFunction;
import org.apache.spark.api.java.function.PairFunction;
import scala.Tuple2;

import java.util.ArrayList;
import java.util.List;

/**
 * Created by Macan on 2017/9/25.
 */
public class WordCount {

    public static void main(String[] args) {
        System.setProperty("hadoop.home.dir","C:\\winutils");
        SparkConf sc = new SparkConf().setMaster("local[*]").setAppName("LoadData");
        JavaSparkContext jsc = new JavaSparkContext(sc);

        JavaRDD<String> input = jsc.textFile("src/main/resources/entity/part-00000");

        //切分单词, 相当于hadoop 中的map阶段
        JavaPairRDD<String, Integer> flattenPairs = input.flatMapToPair(new PairFlatMapFunction<String, String, Integer>() {
            public Iterable<Tuple2<String, Integer>> call(String s) throws Exception {
                List<Tuple2<String, Integer>> res = new ArrayList<Tuple2<String, Integer>>();
                String[] words = s.replaceAll("[\"]", "").split(",");
                for (String word : words){
                    res.add(new Tuple2<String, Integer>(word, 1));
                }
                return res;
            }
        });

        //reduce
        JavaPairRDD<String, Integer> wordCountRdd = flattenPairs.reduceByKey(new Function2<Integer, Integer, Integer>() {
            public Integer call(Integer count1, Integer count2) throws Exception {
                return count1 + count2;
            }
        });

        JavaPairRDD<Integer, String> result = wordCountRdd.mapToPair(new PairFunction<Tuple2<String, Integer>, Integer, String>() {
            @Override
            public Tuple2<Integer, String> call(Tuple2<String, Integer> value) throws Exception {
                Tuple2<Integer, String> rst = new Tuple2<>(value._2(), value._1());
                return rst;
            }
        }).sortByKey(false);

        //保存结果
        result.saveAsTextFile("src/main/resources/result");


    }
}
  • 对于程序中用到的几种数据结构
JavaPairRDD: 可以理解为java中的List<Pair<Object, Object>>
Tuple2: 可以理解成一个Pair<Object, Object>,是一个元组类型:(a,b)这种结构
  • 涉及到的方法:
JavaSparkContext : textFile(String Path) : 读取文件,path可以是一个文件,也可以是一个目录

flatMapToPair : 是一个遍历过程,其可以对当前task中分发的数据进行遍历处理,具体处理逻辑用户自定义在call()方法中,wordcount 程序中是进行单词的切分操作,赋予每个单词的频率为1 。 flatMapToPair参数有三个,第一个是输入,第二个和第三个是返回的Pair中的第一个和第二个参数。

reduceByKey :按照key reduce操作。如何reduce也在call 方法中实现。
[root@master ~]# /usr/local/spark/sbin/start-all.sh starting org.apache.spark.deploy.master.Master, logging to /usr/local/spark/logs/spark-root-org.apache.spark.deploy.master.Master-1-master.out slave1: starting org.apache.spark.deploy.worker.Worker, logging to /usr/local/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-slave1.out slave2: starting org.apache.spark.deploy.worker.Worker, logging to /usr/local/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-slave2.out slave1: failed to launch: nice -n 0 /usr/local/spark/bin/spark-class org.apache.spark.deploy.worker.Worker --webui-port 8081 spark://master:7077 slave2: failed to launch: nice -n 0 /usr/local/spark/bin/spark-class org.apache.spark.deploy.worker.Worker --webui-port 8081 spark://master:7077 slave1: Spark Command: /usr/local/jdk/bin/java -cp /usr/local/spark/conf/:/usr/local/spark/jars/*:/usr/local/hadoop/etc/hadoop/:/usr/local/hive/lib/ -Xmx1g org.apache.spark.deploy.worker.Worker --webui-port 8081 spark://master:7077 slave1: ======================================== slave1: full log in /usr/local/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-slave1.out slave2: Spark Command: /usr/local/jdk/bin/java -cp /usr/local/spark/conf/:/usr/local/spark/jars/*:/usr/local/hadoop/etc/hadoop/:/usr/local/hive/lib/ -Xmx1g org.apache.spark.deploy.worker.Worker --webui-port 8081 spark://master:7077 slave2: ======================================== slave2: full log in /usr/local/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-slave2.out 我哪里有spark-class
最新发布
07-29
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值