spark本地测试报错:java.lang.NoClassDefFoundError: org/apache/spark/sql/SparkSessio

本文介绍了在Spark Maven项目中遇到的错误:'Error: AJNI error has occurred, please check your installation and try again'. 解决方案是移除<dependency>标签中的<scope>provided</scope>,确保Spark SQL依赖在本地测试时被正确加载,只需刷新IDEA依赖并重新编译即可.

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

spark maven项目本地测试报错:

Error: A JNI error has occurred, please check your installation and try again
Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/sql/SparkSession

原因是我在pom文件里引入的sparksql依赖加了<scope>provided</scope>标签,导致在执行时忽略了这个依赖。需要注释掉:

    <dependency>
      <groupId>org.apache.spark</groupId>
      <artifactId>spark-sql_2.12</artifactId>
      <version>2.4.8</version>
      <!--<version>${spark.version}</version>-->
      <!--<scope>provided</scope>-->
    </dependency>

然后在idea中刷新maven的依赖保证生效即可。

scope的参数如下:

compile

默认的scope,表示 dependency 都可以在生命周期中使用。而且,这些dependencies 会传递到依赖的项目中。适用于所有阶段,会随着项目一起发布

provided

跟compile相似,但是表明了dependency 由JDK或者容器提供,例如Servlet AP和一些Java EE APIs。这个scope 只能作用在编译和测试时,同时没有传递性。

runtime

表示dependency不作用在编译时,但会作用在运行和测试时,如JDBC驱动,适用运行和测试阶段。 test表示dependency作用在测试时,不作用在运行时。 只在测试时使用,用于编译和运行测试代码。不会随项目发布。 system跟provided 相似,但是在系统中要以外部JAR包的形式提供,maven不会在repository查找它

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值