flink sql kafka写数据到hive

本文详细介绍了如何配置Flink连接Hive和Kafka,包括创建hive-site.xml配置Hive metastore,导入所需jar包,重启Flink集群,新建Hive和Kafka表。在完成配置后,可通过SQL语句`insert into test_hive_table select * from kafkaTable;`将数据从Kafka写入Hive。文章还讨论了写入Hive表的文件滚动策略、压缩和分区提交策略,确保下游应用及时、准确地获取数据。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

step1:flink连接hive配置

  1. 首先确保启动hive metastore远程服务
  2. flink安装目录下新建文件夹hive-conf,然后vi hive-site.xml,配置hive仓库地址和metastore远程服务连接地址。(此配置为了在flink集群中启动hive客户端来远程访问hive metastore服务)具体如下:
  • 新建hive-conf文件夹:
    在这里插入图片描述
  • hive-site.xml配置
<configuration>
	<property>
		<name>hive.metastore.uris</name>
		<value>thrift://ip:9083</value>
	</property>
	<property>
		<name>hive.metastore.warehouse.dir</name>
		<value>/user/hive/warehouse</value
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值