【问题标题】:Kafka connect with mongo oplogKafka 与 mongo oplog 连接
【发布时间】:2018-10-19 04:01:31
【问题描述】:

我想跟踪 mongo oplog 并通过 Kafka 流式传输它。但是有很多数据库和集合,我只想获取其中一个的更新数据。如果要从 oplog 中的所有操作记录中过滤掉所需的操作记录,这会影响性能。所以我想寻求一个更好的解决方案。请给我一些建议。

【问题讨论】:

    标签: mongodb apache-kafka apache-kafka-connect


    【解决方案1】:

    不清楚您使用的是什么工具,但 Debezium 支持这些用于应用过滤

    • database.whitelist
    • collection.whitelist

    也不清楚什么会“影响性能”,因为您已经在阅读完整的 oplog,但是执行过滤器(意味着删除所有不匹配条件的记录)应该不会产生重大影响,因为布尔/正则表达式检查通常会完成很快。

    【讨论】:

    • 担心性能的原因是mongo存储了很多数据,其他数据库会有很多操作来更新数据。如果使用code获取oplog中的操作记录,每条操作记录都需要判断代码。太多无用的判断会影响性能。你怎么看?
    • Mongo 的性能?不,因为 oplog 没有被过滤,所以无法避免完整地阅读它,AFAIK。而且您没有对 Mongo 执行实际的数据库查找或写入,因此这也不会产生影响......基本上,如果使用 Kafka 会导致性能问题,那么只需复制或分片 Mongo 实例
    猜你喜欢
    • 2021-10-07
    • 2020-05-08
    • 2020-05-09
    • 1970-01-01
    • 2017-07-17
    • 1970-01-01
    • 2019-01-17
    • 2017-06-27
    • 2021-08-18
    相关资源
    最近更新 更多