当前位置:   article > 正文

【Flink实战系列】Flink SQL 实时同步数据到 Hive_flink实时写入hive

flink实时写入hive

通过 HiveCatalog, Apache Flink 可以对 Apache Hive Tables 进行统一的 BATCH 和 STREAM 处理。这意味着Flink 可以作为一个比 Hive 的批处理引擎性能更好的选择,或者可以连续地在 Hive 表中读写数据,从而支持实时数据仓库应用程序。这篇文章就来介绍一下使用 Flink SQL 实时同步数据到 Hive 的流程。

环境

flink: 1.15.0
hadoop: 2.9.0
hive: 2.3.4
  • 1
  • 2
  • 3

依赖

<dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-connector-hive_2.1
  • 1
  • 2
本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号