Kafka 在 CentOS 的数据恢复实操指南
一、恢复前准备
二、常用恢复方式与适用场景
| 方法 | 适用场景 | 核心命令或要点 |
|---|---|---|
| 控制台导入/导出 | 小规模或一次性回灌、文本/JSON 可读数据 | 导出:kafka-console-consumer.sh --bootstrap-server <broker:9092> --topic <topic> --from-beginning > <file>;导入:kafka-console-producer.sh --broker-list <broker:9092> --topic <topic> --new-producer < <file> |
| MirrorMaker 2(集群镜像) | 跨集群迁移/持续同步、近实时回灌 | 使用 MM2 配置源/目的集群,按 Topic 白名单/正则进行复制,适合把“备份集群”回灌到“生产集群” |
| kafka-dump / kafka-backup | 工具化全量/增量备份与恢复 | 全量导出:kafka-dump --bootstrap-server <broker:9092> --output-dir <dir>;增量备份/恢复:使用 kafka-backup(Confluent 提供)执行周期性备份与回放 |
| 说明:上述工具与命令为业界常用做法,适用于 CentOS 环境;kafka-dump/kafka-backup 的具体安装与参数以所用发行版与版本为准。 |
三、分步恢复操作示例
kafka-topics.sh --create ...kafka-console-producer.sh --broker-list <broker:9092> --topic <topic> --new-producer < <backup-file>;数据量大时建议分批导入或采用异步方式提升吞吐。kafka-console-consumer.sh --bootstrap-server <broker:9092> --topic <topic> --from-beginning --max-messages <N> 抽样验证。topics.whitelist、sync.group.offsets.enabled=true 等。四、恢复后的校验与常见问题