【问题标题】:Confluent Kafka Sink Connector is not loading data to Postgres tableConfluent Kafka Sink Connector 未将数据加载到 Postgres 表
【发布时间】:2018-11-02 19:53:28
【问题描述】:

我正在尝试通过 Kafka Sink 连接器将数据加载到 Postgres 表,但出现以下错误:

原因:org.apache.kafka.connect.errors.ConnectException:无法更改以添加缺少的字段 SinkRecordField{schema=Schema{STRING}, name='A_ABBREV', isPrimaryKey=false},因为它不是可选的并且没有默认值

Postgres DB 中的表已经包含字段 A_ABBREV,但现在可以确定为什么我会收到缺少字段错误。

有人遇到过类似的问题吗?

以下是我的接收器连接器配置:

connector.class=io.confluent.connect.jdbc.JdbcSinkConnector
table.name.format=AGENCY
connection.password=passcode
topics=AGENCIES
tasks.max=1
batch.size=10000
fields.whitelist=A_ID, A_NAME, A_ABBREV
connection.user=pmmdevuser
name=partner5-jdbcSinkConnector
connection.url=jdbc:postgresql://aws-db.sdfdgfdrwwisc.us-east- 1.rds.amazonaws.com:3306/pmmdevdb?currentSchema=ams
insert.mode=upsert
pk.mode=record_value
pk.fields=A_ID
auto.create=false

我正在使用 Liquibase 脚本创建表,下面是通过 Liquibase 脚本创建的 postgres DB 中的创建查询:

"CREATE TABLE gds.agency
(
    a_id integer NOT NULL,
    a_name character varying(100) COLLATE pg_catalog."default" NOT NULL,
    a_abbrev character varying(8) COLLATE pg_catalog."default" NOT NULL,
    source character varying(255) COLLATE pg_catalog."default" NOT NULL DEFAULT 'AMS'::character varying,
    CONSTRAINT pk_agency PRIMARY KEY (a_id),
    CONSTRAINT a_abbrev_uk1 UNIQUE (a_abbrev)
)"

【问题讨论】:

  • 听起来您的表或配置在您第一次启动后发生了变化

标签: postgresql jdbc apache-kafka apache-kafka-connect confluent-platform


【解决方案1】:

根据我的经验,这意味着接收器的字段定义与源表/数据库的字段定义不匹配。确保字段定义匹配。检查接收器连接器尝试写入目标数据库的单个记录。您应该能够在堆栈跟踪中以调试模式看到此插入语句。获取该查询并手动运行它,以便更清楚地了解数据库中的错误。

【讨论】:

    猜你喜欢
    • 2021-11-20
    • 2021-04-12
    • 2020-07-14
    • 2021-09-27
    • 2021-10-01
    • 2022-07-12
    • 1970-01-01
    • 1970-01-01
    • 2021-12-21
    相关资源
    最近更新 更多