Flink oracle cdc - Oracle Logminer CDC性能问题

最近的项目中有用到Flink Oracle CDC实时到监听数据库变化,将变化的数据sink到Kafka。Oracle CDC依赖Debezium组件解析Redo Log与Archive Log,Debezium 通过Oracle 的Logminer解析Log。在我们生产环境遇到

  1. 运行一段时间后,再也查询不到数据,直到报miss log file异常(线上环境cron job 将一小时前的archvied log压缩生成gzip文件),Flink job运行失败。

  1. 日志量比较大的时候,延迟非常大,每小时archived log size超过60G时延迟去到小时级别。

 

分析问题前,先简单介绍下Oracle LogMiner流程,

  1. start log miner


begin
    DBMS_LOGMNR.START_LOGMNR(STARTSCN => scn, ENDSCN => end scn,
                             OPTIONS => DBMS_LOGMNR.DICT_FROM_ONLINE_CATALOG + DBMS_LOGMNR.CONTINUOUS_MINE +
                                        DBMS_LOGMNR.SKIP_CORRUPTION);
end;

Start LogMiner,添加scn 对应的日志文件到待解析列表

77ab1ed8b67d1ab7f6c7f2332fe68ad3.png

 

参数说明:

start scn:scn = start scn + 1, LogMiner 根据scn定位对应的日志文件,日志文件分为redo log与archived log,每个日志文件对应数据一条记录,其中 first_change#(这个日志文件最小的scn 值),next_change# (下一个日志文件的开始scn值)。[first_change#,next_change#)前闭后开。

下一个日志文件的 first_change#与上一个的日志文件的next_change# 值相等。

LogMiner 根据scn处在[first_change#,next_change#)区间定位到日志文件(redo

log或者archvied log文件)。

日志文件包含很多block。每个block会有对应的start scn索引信息,方便我们根据scn 定位要解析的日志块,因此LogMiner就可以只解析少量的日志块,而不是整个日志文件(这块非常类似于HBase基于rowid查询数据逻辑)。

 

end scn: LogMiner解析到end scn定位等日志块。

CONTINUOUS_MINE: 自动添加对应的日志文件到待解析列表

 

Redo LOG:


select *
from v$log
    where first_change# <= scn and next_change# > scn;
c6f5f2409f8ff262b12ee9d37d04733a.png

 

Archvied LOG:


select *
from v$archived_log A
where first_change# <= scn and next_change# > scn
 AND A.ARCHIVED = 'YES' AND A.STATUS = 'A' ;

 

  1. 查询V$LOGMNR_CONTENTS触发LogMiner解析


SELECT SCN,
       SQL_REDO,
       OPERATION_CODE,
       TIMESTAMP,
       XID,
       CSF,
       TABLE_NAME,
       SEG_OWNER,
       OPERATION,
       USERNAME,
       ROW_ID,
       ROLLBACK,
       RS_ID
FROM V$LOGMNR_CONTENTS
WHERE SCN > start scn
  AND SCN <= end scn
  AND ((OPERATION_CODE IN (6, 7, 36) OR
        (OPERATION_CODE = 5 AND USERNAME in ('RMSPRD') AND INFO NOT LIKE 'INTERNAL DDL%' AND
         SEG_OWNER in ('Schema'))) OR (OPERATION_CODE IN (1, 2, 3) AND SEG_OWNER in ('RMSPRD')
                                           AND TABLE_NAME in ('table_name')));
749824c7c27de6814cbd7a041388ddd8.png

 

参数说明:

OPERATION_CODE:

public static final int INSERT = 1;

public static final int DELETE = 2;

public static final int UPDATE = 3;

public static final int DDL = 5;

public static final int ROLLBACK = 36;

 

查询数据:

事物:开启,提交,回滚事物

DDL:监听的schema与table的DDL操作事件

数据操作:监听的table的数据变化(增加,删除,修改,save point 记录回滚。save point记录回滚,回滚的每条记录都会有一条记录,OPERATION_CODE与正向的操作一样,只是ROLLBACK=1)。

 

start scn 上次一次返回的数据的最后记录的scn值(last processed scn),再继续查询。

 

问题一,因为start scn是上次一次返回的数据的最后记录的scn值(last processed scn),仅查询我们监听表的事件;end scn是会根据一定规则进行计算,end scn与 start scn最大区间默认不超过50w,超过50w后end scn不再继续增加。在我们线上有遇到50w的区间查不到数据,我们也尝试增大到500w,同样也有查不到数据情况,因为没有查到数据,start scn不会往前递进,而且end scn与start scn range已经达到配置到最大值,end scn也不会往前递进,这样就会一直查询这范围的数据,而且一直没有我们需要的数据,直到logminer 报miss log file异常。

为啥start scn是取上次一次返回的数据的最后记录的scn值(last processed scn)而不是上一次的end scn值,代码中注释如下:

0d7576fa54e460e6a7606bbec2d5b7dd.jpeg

大概就是说LGWR写缓存的数据还没有刷新到日志文件,logminer没有查询到数据,并不能说明当前range真的是没有数据返回,有可能到end scn的事件还没有被刷新到日志文件,下一次查询可能返回我们需要的数据。

 

修复如下:

如果对应scn 范围的文件是archived log文件,查询没有数据返回了,就表明这范围内没有我们需要的数据,start scn = end scn;

如果对应scn 范围的文件是redo log文件,且当的文件正在写入,查询没有数据返回了,不能说明明这范围内没有我们需要的数据,有可能LGBR还没有刷新到文件中,我们需要修改start scn 上次一次返回的数据的最后记录的scn值(last processed scn),再继续查询,直到end scn对应的日志文件不是当前写入状态,或者对应的日志文件被 archive。

 

75bc2a092f0d650c019e945213ebcddb.png

 

问题二:日志太大,logminer性能问题

LogMiner 最大的问题在于其性能, 他运行在 Oracle 内部, 并且运行在日志落地之后, 不可避免地需要消耗数据库的算力去完成工作, 为了降低这个不在主流程的进程的资源消耗, Oracle 对 LogMiner 做了非常严格的资源限制, 每个 LogMiner 进程, 他的资源消耗都不能超过 1 个 cpu 核心, 在大多数场景下, 这个将 LogMiner 的日志解析速度限制在 1w 条每秒以下, 在一些严肃的场合, 这个速度是远远不够的, Oracle 是一个事务数据库, 一个大的Update, 可能会带来数十万上百万的更新, 在这种情况下, 每秒 1w 的解析速度会使得下游延迟增大到数分钟级别, 更糟糕的是, 在数据库本身负载较高的情况下, 由于 LogMiner 的解析与数据库共享负载, 会让解析速度进一步下降。

在工程上, 这个问题也有办法可以解决, LogMiner 本质上只是一个日志解析工具, 如果开发者在外部自己管理LogMiner 进程, 将不同的日志通过不同的 LogMiner 进程并行解析, 理论上可以通过消耗更多的 CPU, 来实现更快的解析, 但是这个也导致了数据库的资源被进一步消耗, 最终速度是否达到预期并不是想当然的事情。

为了解决 LogMiner 与数据库争夺资源的问题, 还有一个异步解析的方案, 首先通过 Oracle 的机制, 将 redo log 异步传输到另外一台没有业务压力的 Oracle 实例上, 然后在另外一台机器上开启并发解析。

 

并发LogMiner解析方案:

主要分为三模块,

模块一:一个线程负责scn range 切分

模块二:获取切分的scn range,开启LogMiner线程并发的解析对应scn range 事件

模块三:顺序的处理获取到的事件

841a280f60916a2167d41547adf6ce7d.jpeg

 

 

流程描述:

 

  1. scn range 切分线程

scn range,(start scn-end scn],end scn = start scn + batch range,根据scn = start scn + 1 定位日志文件,如果end scn > 这个日志文件的next_change-1, end scn=next_change-1

 

885af73b0b071fd97d90e9a3729908ee.png

 

2. 顺序log 处理控制线程

获取切换分的scn range对象,添加到待LogMiner解析队列,同时也添加到待处理的log队列

 

  1. LogMiner线程池

获取待LogMiner队列的数据,LogMiner线程获取分片的startScn, endScn,开启LogMiner,判断是否需要持续LogMiner,查询V$LOGMNR_CONTENTS数据

0460cd4e75bd8985c8af8287190c1567.png

 

  1. LOG event 处理线程

fa727232f7517f68634b7cab54f5c1d1.png

 

  1. 动态调整LogMiner线程数量

3bdf0e82c37901593624f46b9d1871d4.png

 

  1. 针对redo log分片策越调整

a38cbb1d60ef521ed8c6adf9f0802af3.png

 

目前我们配置logminer 3-15线程数,大部分情况延迟都是在秒级;每小时日志size 去到100G,延迟也能控制在10分钟

 

 

 

qiuqiufangfang1314
关注 关注
  • 6
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 28
    评论
Flink CDC 同步Oracle数据
weixin_42454473的博客
03-10 8049
flink cdc 同步Oracle
2.OracleLogminer性能测试.pdf
06-12
2.OracleLogminer性能测试.pdf
Flink CDC 实时抽取 Oracle 数据-排错&调优
Denny辉的博客
01-12 1804
Flink CDC 于 2021 年 11 月 15 日发布了最新版本 2.1,该版本通过引入内置 Debezium 组件,增加了对 Oracle 的支持。对该版本进行试用并成功实现了对 Oracle 的实时数据捕获以及性能调优,现将试用过程中的一些关键细节进行分享。
Flink CDC 1.18.1 Oracle 数据同步到postgresql
最新发布
ynzhangyao的专栏
03-24 881
8、修改Flink的配置文件,主要是各种服务的绑定地址,默认为localhost,统统改为0.0.0.0,如:rest.address: 0.0.0.0 #localhost。将flink-sql-connector-oracle-cdc-3.0.1.jar复制到flink-1.18.1/lib目录中。6、下载 flink-connector-jdbc-3.1.1-1.17.jar,postgresql-42.7.3.jar。7、安装postgresql就不说了,相信你已经有了数据库了。
Flink CDC 系列 - 实时抽取 Oracle 数据,排雷和调优实践
Ververica的博客
12-15 5384
▼ 关注「ApacheFlink」视频号,遇见更多大咖▼摘要:本文作者为中国农业银行研发中心丁杨,在 Flink CDC 2.1 版本发布后第一时间下载使用,并成功实现了对 Oracle...
flink cdc初始全量速度很原因和优化点
linweidong的专栏
08-23 2076
link cdc初始全量速度很的原因之一是,它需要先读取所有的数据,然后再写入到目标端,这样可以保证数据的一致性和顺序。但是这样也会导致数据的延迟和资源的浪费。 flink cdc初始全量速度很的原因之二是,它使用了Debezium作为捕获数据变化的引擎,而Debezium在读取数据时,会使用全局锁或者快照隔离级别,这样会影响源端数据库的性能和并发能力。 flink cdc初始全量速度很的优化点之一是,使用并行读取的方式,将源端数据库的表分成多个分区,然后使用多个任务同时读取不同的分区,这样可以提
OracleCDC数据增量抽取
JAVASoftEngineer的博客
09-29 966
OracleCDC数据增量抽取详解
Oracle CDC(Change Data Capture)概述
热门推荐
chensrao的专栏
02-22 3万+
一、增量数据采集概述 数据采集通常是指ETL过程中Extract-数据抽取部分。除了ETL外在不同应用系统之间通常也需要传递数据,在某些环境条件限制下不能将数据从一个系统直接移到另一个系统,只能借助文本来作为中间媒介传递数据,且文本的生成有时间窗口的限制,所以对数据采集即数据抽取的性能有一定的要求。对增加数据的采集的方法常用的有以下几种: 1. 时间戳(Timestamps on rows) 2. 版本号(Version Numbers on rows) 3. 状态指示(Status indicat
2、Oracle Logminer性能测试
weixin_33682790的博客
06-18 429
Oracle Logminer性能测试 1 测试介绍 1.1 测试目的 通过模拟不同环境下LogMiner解析联机/归档日志文件运行情况,通过测试所获取的数据分析,通过对以下两点的验证来确定通过LogMiner技术技术可行性: 1、在日志文件不同大小、不同数据压力情况下对数据库服务器内存、CPU的影响; 2、并通过查询LogMiner的动态表和实际物理表中数据数目是否一致,验证其准确性。...
Flink CDC Oracle 完整踩坑指南
qq_33824503的博客
04-06 1万+
FlinkCDC完整踩坑指南
flinkcdc抽取oracle数据(oracle cdc详细文档)
ask_baidu的博客
01-01 7278
flinkcdc集成说明文档、oraclecdc详细文档、全量+增量同步oracle数据
ORACLE CDC介绍
07-18
CDCoracle在数据库级别实现的增量抽取解决方案
flink-connector-mysql-cdc-2.1-SNAPSHOT.jar
09-28
flink-connector-mysql-cdc-2.1的包
flink-1.13.6_cdc
07-07
flink-1.13.6_cdc 部署资源包
flink-connector-mysql-cdc-2.2
03-25
Flink CDC Connectors 2.2源码修改,适配Flink 1.14.2(MySQL)
flink-connector-postgres-cdc-1.4.0.jar
04-21
flink-connector-postgres-cdc-1.4.0.jar
flink 14.5 实现 oracle 11G cdc 功能
10-13
flink 14.5 实现 oracle 11G cdc 功能 的 所有的jar 包文件测试成功
flink-sql-connector-oracle-cdc-2.3.0.jar
08-23
flinkcdc oracle 2.3.0
Flink CDC + Oracle Demo
z3191595的博客
02-22 2821
Flink CDC + Oracle Demo;通过oracle logminer读取变更信息
flink cdc oracle
08-19
Flink CDC Oracle是基于FlinkOracle Change Data Capture(CDC)功能,用于实时采集Oracle数据库的数据变更。它使用了debezium框架,并利用Oracle数据库自带的logminer技术来实现数据采集。 在配置Flink CDC Oracle时,需要注意的是,如果Oracle的dbName配置的是SID而不是service_name,可能会导致连接失败。解决这个问题的方法是将jdbc链接字符串改为jdbc:oracle:thin:@localhost:1521:sid的方式。你可以通过API方式或Flink SQL方式手动指定这个链接字符串,例如使用基于API的方式可以设置properties.put("database.url","jdbc:oracle:thin:@localhost:1521:sid")。 总结来说,Flink CDC Oracle是用于实时采集Oracle数据库数据变更的工具,它基于Flink并使用debezium和Oraclelogminer技术实现。在配置时需要注意正确设置链接字符串,特别是当dbName配置为SID时。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [flink1.14.3 cdc jar包](https://download.csdn.net/download/weixin_46661903/84678566)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* *3* [Flink Oracle CDC Connector源码解读](https://blog.csdn.net/IT_xhf/article/details/130364090)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
写文章

热门文章

  • Flink oracle cdc - Oracle Logminer CDC性能问题 4302
  • Flink Oracle CDC data loss 506
  • Debezium increment snapshot(data recovery) 106

分类专栏

  • Hbase
  • Hadoop
  • Zookeeper
  • Spark
  • ElasticSearch
  • Flume
  • Yarn

最新评论

  • Flink oracle cdc - Oracle Logminer CDC性能问题

    jiaojietao: 大佬请问flinkcdc升级版本对应的提交任务的flink集群版本是不是也要做升级,比如flinkcdc2.4版本引入的依赖是flink1.17.0,那么集群中flink版本也要使用flink1.17.0。

  • Flink oracle cdc - Oracle Logminer CDC性能问题

    凭君莫话封侯事.: 您好,请问在根据checkpoint重启任务后,SCN会回到很早之前,有遇到过这种现象吗?

  • Flink oracle cdc - Oracle Logminer CDC性能问题

    凭君莫话封侯事.: 您好,请问在根据checkpoint重启任务后,SCN会回到很早之前,有遇到过这种现象吗?

  • Flink oracle cdc - Oracle Logminer CDC性能问题

    Numbered_o: 需要升级debezium 或 升级 flinkcdc 的版本, 自己改代码的话, 还是有要改几个地方的

  • Flink oracle cdc - Oracle Logminer CDC性能问题

    jiaojietao: 请问这个问题解决了么

最新文章

  • Debezium increment snapshot(data recovery)
  • Flink Oracle CDC data loss
2023年3篇

目录

目录

评论 28
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

PHP网站源码楚雄模板网站建设镇江网站制作设计哪家好南山关键词按天计费多少钱海东网站优化按天计费公司和田外贸网站建设公司塘坑百度竞价包年推广哪家好深圳关键词排名包年推广推荐永湖网站改版哪家好铜仁百度网站优化排名哪家好银川网站排名优化公司唐山外贸网站建设天水外贸网站建设报价日照网站优化多少钱凉山建站价格三亚seo价格济源百度标王报价上海至尊标王多少钱海南高端网站设计推荐哈密网站优化报价黔南建设网站吴忠企业网站设计推荐普洱网站推广价格北海品牌网站设计朝阳网站改版哪家好衡水百度seo哪家好南宁外贸网站设计永湖阿里店铺托管哪家好泸州百度seo上饶高端网站设计推荐德宏高端网站设计公司歼20紧急升空逼退外机英媒称团队夜以继日筹划王妃复出草木蔓发 春山在望成都发生巨响 当地回应60岁老人炒菠菜未焯水致肾病恶化男子涉嫌走私被判11年却一天牢没坐劳斯莱斯右转逼停直行车网传落水者说“没让你救”系谣言广东通报13岁男孩性侵女童不予立案贵州小伙回应在美国卖三蹦子火了淀粉肠小王子日销售额涨超10倍有个姐真把千机伞做出来了近3万元金手镯仅含足金十克呼北高速交通事故已致14人死亡杨洋拄拐现身医院国产伟哥去年销售近13亿男子给前妻转账 现任妻子起诉要回新基金只募集到26元还是员工自购男孩疑遭霸凌 家长讨说法被踢出群充个话费竟沦为间接洗钱工具新的一天从800个哈欠开始单亲妈妈陷入热恋 14岁儿子报警#春分立蛋大挑战#中国投资客涌入日本东京买房两大学生合买彩票中奖一人不认账新加坡主帅:唯一目标击败中国队月嫂回应掌掴婴儿是在赶虫子19岁小伙救下5人后溺亡 多方发声清明节放假3天调休1天张家界的山上“长”满了韩国人?开封王婆为何火了主播靠辱骂母亲走红被批捕封号代拍被何赛飞拿着魔杖追着打阿根廷将发行1万与2万面值的纸币库克现身上海为江西彩礼“减负”的“试婚人”因自嘲式简历走红的教授更新简介殡仪馆花卉高于市场价3倍还重复用网友称在豆瓣酱里吃出老鼠头315晚会后胖东来又人满为患了网友建议重庆地铁不准乘客携带菜筐特朗普谈“凯特王妃P图照”罗斯否认插足凯特王妃婚姻青海通报栏杆断裂小学生跌落住进ICU恒大被罚41.75亿到底怎么缴湖南一县政协主席疑涉刑案被控制茶百道就改标签日期致歉王树国3次鞠躬告别西交大师生张立群任西安交通大学校长杨倩无缘巴黎奥运

PHP网站源码 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化