spark 1.6 java版本_Spark版本与各语言版本对应关系小汇总

本文汇总了Spark从1.0.2到2.2.0版本对Java, Scala, Python和R的版本要求。Spark 2.2.0开始仅支持Java 8+, Python 2.7+/3.4+和R 3.1+,且Scala API使用Scala 2.11。而Spark 1.6.0及其之前版本则支持Java 7+, Python 2.6+和R 3.1+,Scala API主要为Scala 2.10。" 104134597,9295255,Windows环境下Kafka入门与实战,"['Kafka', 'Java', 'Zookeeper', '消息队列']

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

66b88c490b39768371667ffc7581c669.gif

再不点蓝字关注,机会就要飞走了哦!

76cb79e825d149f2aac8902ea1a4a947.png

Spark版本 2.2.0

Spark运行在Java 8+,Python 2.7 + / 3.4 +和R 3.1+上。对于Scala API,Spark 2.2.0使用Scala 2.11。

您将需要使用兼容的Scala版本(2.11.x)。

请注意,从Spark 2.2.0开始,对2.6.5之前的Java 7,Python 2.6和旧Hadoop版本的支持已被删除。

请注意,从Spark 2.1.0开始不支持Scala 2.10,可能会在Spark 2.3.0中删除。

Spark版本 2.1.1

Spark运行在Java 7+,Python 2.6 + / 3.4 +和R 3.1+上。对于Scala API,Spark 2.1.1使用Scala 2.11。

您将需要使用兼容的Scala版本(2.11.x)。

请注意,从Spark 2.0.0开始不支持对Java 7和Python 2.6的支持。

Spark版本 2.1.0

Spark运行在Java 7+,Python 2.6 + / 3.4 +和R 3.1+上。对于Scala API,Spark 2.1.0使用Scala 2.11。

您将需要使用兼容的Scala版本(2.11.x)。

Spark版本 2.0.2

Spark运行在Java 7+,Python 2.6 + / 3.4 +和R 3.1+上。对于Scala API,Spark 2.0.2使用Scala 2.11。

您将需要使用兼容的Scala版本(2.11.x)。

Spark版本 2.0.1

Spark运行在Java 7+,Python 2.6 + / 3.4 +和R 3.1+上。对于Scala API,Spark 2.0.1使用Scala 2.11。

您将需要使用兼容的Scala版本(2.11.x)。

Spark版本 2.0.0

Spark运行在Java 7+,Python 2.6 + / 3.4 +和R 3.1+上。对于Scala API,Spark 2.0.0使用Scala 2.11。

您将需要使用兼容的Scala版本(2.11.x)。

Spark版本 1.6.3

Spark运行在Java 7+,Python 2.6+和R 3.1+上。对于Scala API,Spark 1.6.3使用Scala 2.10。

您需要使用兼容的Scala版本(2.10.x)。

Spark版本 1.6.2

Spark运行在Java 7+,Python 2.6+和R 3.1+上。对于Scala API,Spark 1.6.2使用Scala 2.10。

您需要使用兼容的Scala版本(2.10.x)。

Spark版本 1.6.1

Spark运行在Java 7+,Python 2.6+和R 3.1+上。对于Scala API,Spark 1.6.1使用Scala 2.10。

您需要使用兼容的Scala版本(2.10.x)。

Spark版本 1.6.0

Spark运行在Java 7+,Python 2.6+和R 3.1+上。对于Scala API,Spark 1.6.0使用Scala 2.10。

您需要使用兼容的Scala版本(2.10.x)。

Spark版本 1.5.2

Spark运行在Java 7+,Python 2.6+和R 3.1+上。对于Scala API,Spark 1.5.2使用Scala 2.10。

您需要使用兼容的Scala版本(2.10.x)。

Spark版本 1.5.1

Spark运行在Java 7+,Python 2.6+和R 3.1+上。对于Scala API,Spark 1.5.1使用Scala 2.10。

您需要使用兼容的Scala版本(2.10.x)。

Spark版本 1.5.0

Spark运行在Java 7+,Python 2.6+和R 3.1+上。对于Scala API,Spark 1.5.0使用Scala 2.10。

您需要使用兼容的Scala版本(2.10.x)。

Spark版本 1.4.1

Spark运行在Java 6+,Python 2.6+和R 3.1+上。对于Scala API,Spark 1.4.1使用Scala 2.10。

您需要使用兼容的Scala版本(2.10.x)。

Spark版本 1.4.0

Spark运行在Java 6+,Python 2.6+和R 3.1+上。对于Scala API,Spark 1.4.0使用Scala 2.10。

您需要使用兼容的Scala版本(2.10.x)。

Spark版本 1.3.1

Spark运行在Java 6+和Python 2.6+上。对于Scala API,Spark 1.3.1使用Scala 2.10。

您需要使用兼容的Scala版本(2.10.x)。

Spark版本 1.3.0

Spark运行在Java 6+和Python 2.6+上。对于Scala API,Spark 1.3.0使用Scala 2.10。

您需要使用兼容的Scala版本(2.10.x)。

Spark版本 1.2.1

Spark运行在Java 6+和Python 2.6+上。对于Scala API,Spark 1.2.1使用Scala 2.10。

您需要使用兼容的Scala版本(2.10.x)。

Spark版本 1.1.1

Spark运行在Java 6+和Python 2.6+上。对于Scala API,Spark 1.1.1使用Scala 2.10。

您需要使用兼容的Scala版本(2.10.x)。

Spark版本 1.0.2

Spark运行在Java 6+和Python 2.6+上。对于Scala API,Spark 1.0.2使用Scala 2.10。

您需要使用兼容的Scala版本(2.10.x)。

Spark版本 0.9.2

对于Scala API,Spark 0.9.2依赖于Scala 2.10。如果您使用Scala编写应用程序,则

需要使用兼容的Scala版本(例如2.10.X) - 较新的主要版本可能无法使用。

Spark版本 0.8.1

对于它的Scala API,Spark 0.8.1-孵化取决于Scala 2.9.3。如果您使用Scala编写应用程序,则需要在您自己的程序中使用相同版本的Scala - 新的主要版本可能无法正常工作。

Spark版本 0.7.3

Spark需要Scala 2.9.3。

Spark版本 0.6.2

Spark需要Scala 2.9.2。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值