Hive 常见问题

本文解决了一系列由于Hadoop与Hive版本不匹配导致的问题,包括JDK版本冲突、Sqoop导入数据失败、Spark升级后的问题及Hadoop环境配置等。通过调整版本、配置文件和环境变量,确保了组件间的兼容性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1 java.base/jdk.internal.loader.ClassLoaders$AppClassLoader cannot be cast to java.base/java.net.URLCl

其原因是jdk版本过高,我用的是9 ,所以将jdk改为1.8即可,但我还是报这个错误,原因是我没有删除原来的9,hadoop配置的是9。而hive会自动加载hadoop配置

so 更改hadoop配置 vim hadoop-env.sh

结论:程序还是用stable 不用最新版

2 we dont support retries at the client level

  1. 修改mysql的字符集  
  2. alter database hive character set latin1; 
  3. 然后换个版本的mysql驱动

 

sqoop 从mysql导入到hive

2  ERROR tool.ImportTool: Import failed: java.io.IOException: java.lang.ClassNotFoundException: org.apache.hadoop.hive.conf.HiveConf  ,有人说将hive-common.jar 放到 sqoop lib下但那样又会引发另一个错误,

Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/hive/shims/ShimLoader

是因为sqoop需要mysql的一些库,所以在/etc/profile中添加以下

export HADOOP_CLASSPATH=$HADOOP_HOME:$HIVE_HOME/lib/*
version  1.4.7  1.2.2

 

3 ls: cannot access '/opt/spark-2.4.0/lib/spark-assembly-*.jar': No such file or directory

主要是spark升级后jar包位置更改导致,修改一下hive源码即可

找到这一行   sparkAssemblyPath=`ls ${SPARK_HOME}/lib/spark-assembly-*.jar` 

  sparkAssemblyPath=`ls ${SPARK_HOME}/jars/*`

4 Cannot find hadoop installation: $HADOOP_HOME or $HADOOP_PREFIX must be set or hadoop must be in the path

需要将 hadoop环境配置到/etc/profile 并且hadoop在hive前面

而且hive-env.sh 中还有配置hadoop 路径不能配错

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值