草庐IT

iceberg-flink

全部标签

从Dinky聊聊Flink的二次开发

这几天研究了一下Dinky,确实是一款很不错的软件,功能很强大,也很实用,可以极大的方便我们flinksql的开发工作,同时他也支持其他一些主流数据库的SQL,像starrocks。下面的连接为Dinky的链接:Dinky(dlink.top)Dinky号称基于Flink二次开发,没有侵入Flink,所以这一点就值得我们学习,为了了解Dinky我自己也搭建了一套Dinky环境,确实使用起来非常舒适 ,搭建过程也是比较容易,下面简单列一下搭建过程。1.Dinky环境搭建1. 解压到指定目录上传安装包并解压:tar-zxvfdlink-release-0.7.3.tar.gz-C/opt/modu

Flink实时写入Apache Doris如何保证高吞吐和低延迟

随着实时分析需求的不断增加,数据的时效性对于企业的精细化运营越来越重要。借助海量数据,实时数仓在有效挖掘有价值信息、快速获取数据反馈、帮助企业更快决策、更好的产品迭代等方面发挥着不可替代的作用。在这种情况下,ApacheDoris作为一个实时MPP分析数据库脱颖而出,它具有高性能和易用性,并且支持多种数据导入方式。结合ApacheFlink,用户可以从MySQL等上游数据库快速导入来自Kafka和CDC(ChangeDataCapture)的非结构化数据。ApacheDoris还提供了亚秒级的分析查询能力,可以有效满足多维分析、仪表盘、数据服务等多种实时场景的需求。挑战通常,实时数据仓库要保证

Apache Flink 1.15正式发布

Apache Flink核心概念之一是流(无界数据)批(有界数据)一体。流批一体极大的降低了流批融合作业的开发复杂度。在过去的几个版本中,Flink流批一体逐渐成熟,Flink1.15版本中流批一体更加完善,后面我们也将继续推动这一方向的进展。目前大数据处理的一个趋势是越来越多的业务和场景采用低代码的方式进行数据分析,而FlinkSQL则是这种低代码方式数据分析的典型代表。越来越多的用户开始采用FlinkSQL来实现他们的业务,这也是Flink用户和生态快速增长的重要原因之一。ApacheFlink作为数据处理生态中的重要一环,可以与许多其他技术结合在一起支持各类用户场景。在当下云原生的背景下

【Flink-1.17-教程】-【五】Flink 中的时间和窗口(1)窗口(Window)

【Flink-1.17-教程】-【五】Flink中的时间和窗口(1)窗口(Window)1)窗口的概念2)窗口的分类2.1.按照驱动类型分2.2.按照窗口分配数据的规则分类2.2.1.滚动窗口(TumblingWindow)2.2.2.滑动窗口(SlidingWindow)2.2.3.会话窗口(SessionWindow)2.2.4.全局窗口(GlobalWindow)3)窗口API概览4)窗口分配器4.1.时间窗口4.2.计数窗口5)窗口函数5.1.增量聚合函数(ReduceFunction/AggregateFunction)5.2.全窗口函数(fullwindowfunctions)5.

Flink(十四)【Flink SQL(中)查询】

前言    接着上次写剩下的查询继续学习。FlinkSQL查询环境准备:#1.先启动hadoopmyhadoopstart#2.不需要启动flink只启动yarn-session即可/opt/module/flink-1.17.0/bin/yarn-session.sh-d#3.启动flinksql的环境sql-client./sql-client.shembedded-syarn-session记得第二步:启动yarn-seesion!!!注意:我们写SQL的时候尽量避免关键字,比如函数名(avg、sum)!1、分组窗口聚合    分组窗口起始就是我们之前学过的滑动窗口、会话窗口、滚动窗口,

八种Flink任务监控告警方式

目录一、Flink应用分析1.1Flink任务生命周期1.2Flink应用告警视角分析二、监控告警方案说明2.1监控消息队中间件消费者偏移量2.2通过调度系统监控Flink任务运行状态2.3引入开源服的SDK工具实现2.4调用FlinkRestApi实现任务监控告警2.5定时去查询目标库最大时间和当前时间做对比2.6自定义指标Reporter的SDK2.7任务日志告警2.8运行任务探活三、总结前言:Flink作为一个高性能实时计算引擎,可灵活的嵌入各种场景,许多团队为了实现业务交付,选择了Flink作为解决方案;但是随着Flink应用的增多且出现线上事故,对Flink任务异常的监控告警成为迫切

记一次Flink通过Kafka写入MySQL的过程

一、前言总体思路:source-->transform-->sink,即从source获取相应的数据来源,然后进行数据转换,将数据从比较乱的格式,转换成我们需要的格式,转换处理后,然后进行sink功能,也就是将数据写入的相应的数据库DB中或者写入Hive的HDFS文件存储。思路:pom部分放到最后面。二、方案及代码实现2.1Source部分Source部分构建一个web对象用于保存数据等操作,代码如下:packagecom.lzl.flink;importjava.util.Date;/***@authorlzl*@create2024-01-1812:19*@namepojo*/public

Flink中的JDBC SQL Connector

Flink中的JDBCSQLConnectorJDBC连接器允许使用JDBC驱动程序从任何关系数据库读取数据并将数据写入数据。本文档介绍如何设置JDBC连接器以针对关系数据库运行SQL查询。如果在DDL上定义了主键,则JDBCsink以upsert模式与外部系统交换UPDATE/DELETE消息,否则,它以append模式运行,不支持消费UPDATE/DELETE消息。引入依赖为了使用JDBC连接器,使用构建自动化工具(例如Maven或SBT)的项目和带有SQLJAR包的SQL客户端都需要以下依赖项。dependency>groupId>org.apache.flinkgroupId>arti

【Flink】FlinkRuntimeException: Cannot read the binlog filename and position via ‘SHOW MASTER STATUS‘

执行flinkcdc报错错误明细:io.debezium.DebeziumException:org.apache.flink.util.FlinkRuntimeException:Cannotreadthebinlogfilenameandpositionvia'SHOWMASTERSTATUS'.Makesureyourserveriscorrectlyconfigured atcom.ververica.cdc.connectors.mysql.debezium.task.MySqlSnapshotSplitReadTask.execute(MySqlSnapshotSplitReadT

Flink系列之:JDBC SQL 连接器

Flink系列之:JDBCSQL连接器一、JDBCSQL连接器二、依赖三、创建JDBC表四、连接器参数五、键处理六、分区扫描七、LookupCache八、幂等写入九、JDBCCatalog十、JDBCCatalog的使用十一、JDBCCatalogforPostgreSQL十二、JDBCCatalogforMySQL十三、数据类型映射一、JDBCSQL连接器ScanSource:BoundedLookupSource:SyncModeSink:BatchSink:StreamingAppend&UpsertModeJDBC连接器允许使用JDBC驱动向任意类型的关系型数据库读取或者写入数据。本文