数据工程师的 IDEA 自定义快捷模版

本文介绍了如何配置Maven项目,包括设置Maven的sourceDirectory,使用maven-assembly-plugin打包依赖,并配置maven-compiler-plugin指定JDK版本。同时展示了如何创建多线程,创建main方法,以及使用Spark Streaming创建JavaStreamingContext。还涵盖了异常捕获和处理,以及编写单元测试的方法。此外,文章提到了SparkContext和SparkSession的创建,以及算法的时间和空间复杂度分析。最后,给出了几个技术博客链接供读者深入学习。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

配置maven:jdk

<build>
    <sourceDirectory>src/main/java</sourceDirectory>

    <plugins>
        <plugin>
            <artifactId>maven-assembly-plugin</artifactId>
            <configuration>
                <descriptorRefs>
                    <descriptorRef>jar-with-dependencies</descriptorRef>
                </descriptorRefs>
                <archive>
                    <manifest>
                        <mainClass></mainClass>
                    </manifest>
                </archive>
            </configuration>
            <executions>
                <execution>
                    <id>make-assembly</id>
                    <phase>package</phase>
                    <goals>
                        <goal>single</goal>
                    </goals>
                </execution>
            </executions>
        </plugin>

        <plugin>
            <groupId>org.apache.maven.plugins</groupId>
            <artifactId>maven-compiler-plugin</artifactId>
            <configuration>
                <source>1.8</source>
                <target>1.8</target>
                <encoding>UTF-8</encoding>
            </configuration>
        </plugin>

    </plugins>
</build>

 创建多线程:fornewthread

for (int i = 0; i < 10$start$; i++) {
    new Thread(() -> {
        $end$
    }, String.valueOf(i)).start();
}

创建main方法:main

public static void main(String[] args){
    $end$
}

创建Spark 上下文:newjavasparkstreaming

//使用SparkStreaming
SparkConf config = new SparkConf().setMaster("local[*]").setAppName($start$);
JavaStreamingContext streamingContext = new JavaStreamingContext(config, Seconds.apply(3)); //3 秒钟,伴生对象,不需要new

$end$

//启动采集器
streamingContext.start();

//Drvier等待采集器停止,
try {
    streamingContext.awaitTermination();
} catch (Exception ex){
    ex.printStackTrace();
}

创建sparkcontext:newsparkcontext

SparkConf conf = new SparkConf();
conf.setAppName($start$).setMaster("local[*]");
JavaSparkContext jsc = new JavaSparkContext(conf);

$end$

jsc.close();

创建sparksession:newsparksession

// 1.初始化spark配置信息并建立与spark的连接
SparkConf config = new SparkConf().setMaster("local[*]").setAppName($start$);
// JavaSparkContext sc = new JavaSparkContext(config);

//SparkSession session = new SparkSession(sc.sc()); // 方法私有,不能正常创建
SparkSession session = SparkSession.builder().config(config).getOrCreate();


$end$

session.stop();

算法时间复杂度说明:tc

// 时间复杂度:O($start$)
// 空间复杂度:O($end$)

创建单元测试方法:testunit

@Test
public void test$start$(){
    $end$
}

异常捕获:trycatch

try {
    $start$
} catch (Exception e) {
    e.printStackTrace();
}

异常最终处理:tryfinally

try {
    $start$  
} finally { 
    $end$  
}

文章最后,给大家推荐一些受欢迎的技术博客链接

  1. JAVA相关的深度技术博客链接
  2. Flink 相关技术博客链接
  3. Spark 核心技术链接
  4. 设计模式 —— 深度技术博客链接
  5. 机器学习 —— 深度技术博客链接
  6. Hadoop相关技术博客链接
  7. 超全干货--Flink思维导图,花了3周左右编写、校对
  8. 深入JAVA 的JVM核心原理解决线上各种故障【附案例】
  9. 请谈谈你对volatile的理解?--最近小李子与面试官的一场“硬核较量”
  10. 聊聊RPC通信,经常被问到的一道面试题。源码+笔记,包懂
  11. 深入聊聊Java 垃圾回收机制【附原理图及调优方法】

欢迎扫描下方的二维码或 搜索 公众号“大数据高级架构师”,我们会有更多、且及时的资料推送给您,欢迎多多交流!

                                           

       

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

不埋雷的探长

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值