feat: 实现Redis集成与Kafka消息处理优化
- 新增Redis集成模块,支持心跳写入与控制台日志队列 - 优化Kafka消费者实现,支持多实例与自动重连 - 改进消息处理器,支持批量处理与多层解码 - 更新数据库表结构,调整字段类型与约束 - 添加Redis与Kafka的配置项和环境变量支持 - 补充测试用例和文档说明
This commit is contained in:
@@ -1,9 +1,12 @@
|
||||
# Kafka消息处理规范
|
||||
|
||||
## 需求
|
||||
## Purpose
|
||||
本规范定义本服务如何连接 Kafka 集群、订阅主题并消费消息(以 buffer 形式透传 payload),以及错误处理/重连与消费确认语义。
|
||||
|
||||
## Requirements
|
||||
|
||||
### Requirement: Kafka连接管理
|
||||
系统必须能够建立和维护与Kafka集群的连接。
|
||||
系统 MUST 能够建立和维护与 Kafka 集群的连接。
|
||||
|
||||
#### Scenario: 成功连接Kafka集群
|
||||
- **WHEN** 系统启动时
|
||||
@@ -16,19 +19,24 @@
|
||||
- **AND** 重连失败时应该记录错误日志
|
||||
|
||||
### Requirement: 心跳消息消费
|
||||
系统必须能够消费Kafka队列中的心跳消息。
|
||||
系统 MUST 能够消费 Kafka 队列中的心跳消息。
|
||||
|
||||
#### Scenario: 消费心跳消息
|
||||
- **WHEN** Kafka队列中有心跳消息时
|
||||
- **THEN** 系统应该消费该消息
|
||||
- **AND** 将消息传递给处理器进行解包
|
||||
|
||||
#### Scenario: 二进制 payload 透传
|
||||
- **WHEN** Kafka 消息 value 可能为二进制压缩数据(非纯文本)
|
||||
- **THEN** Consumer 应使用 buffer 方式接收 value/key
|
||||
- **AND** 将原始 buffer 交由 Processor 执行解码/解压与反序列化
|
||||
|
||||
#### Scenario: 消息消费确认
|
||||
- **WHEN** 消息处理完成后
|
||||
- **THEN** 系统应该向Kafka确认消息已消费
|
||||
|
||||
### Requirement: 消息过滤与路由
|
||||
系统必须能够根据消息类型过滤和路由心跳消息。
|
||||
系统 MUST 能够根据消息类型过滤和路由心跳消息。
|
||||
|
||||
#### Scenario: 过滤无效消息
|
||||
- **WHEN** 接收到无效格式的消息时
|
||||
|
||||
Reference in New Issue
Block a user