diff --git a/openspec/changes/archive/2026-02-28-optimize-content-scheduling/.openspec.yaml b/openspec/changes/archive/2026-02-28-optimize-content-scheduling/.openspec.yaml new file mode 100644 index 0000000..34b5b23 --- /dev/null +++ b/openspec/changes/archive/2026-02-28-optimize-content-scheduling/.openspec.yaml @@ -0,0 +1,2 @@ +schema: spec-driven +created: 2026-02-28 diff --git a/openspec/changes/archive/2026-02-28-optimize-content-scheduling/design.md b/openspec/changes/archive/2026-02-28-optimize-content-scheduling/design.md new file mode 100644 index 0000000..48724e1 --- /dev/null +++ b/openspec/changes/archive/2026-02-28-optimize-content-scheduling/design.md @@ -0,0 +1,83 @@ +## Context + +当前系统有两条独立的发布路径: +1. `scheduler.py` → `auto_publish_once()` → 直接生成 + 直接发布到小红书(绕过队列) +2. `queue_ops.py` → `generate_to_queue()` → `PublishQueue` SQLite 持久化 → `QueuePublisher._loop()` → 按排期/审核状态发布 + +`AnalyticsService` 已在 `content_weights.json` 中保存 `time_weights`(3小时段权重,如 `"18-21时": {"weight": 85, "count": 12}`),但这些数据没有被排期逻辑使用。用户排期必须手动输入时间字符串。 + +## Goals / Non-Goals + +**Goals:** +- G1: 基于 `time_weights` 自动计算最优发布时段,为入队内容分配 `scheduled_time` +- G2: 消除调度器绕过队列的直接发布路径,统一为队列驱动 +- G3: 支持内容间距控制(同一时段不超过 N 篇),分散到多天 +- G4: UI 增加自动排期开关和排期建议展示 + +**Non-Goals:** +- 不改动 `PublishQueue` 的 SQLite 表结构(不新增列) +- 不增加 A/B 测试或基于实时反馈的动态调整 +- 不修改 `QueuePublisher` 的发布执行逻辑(仅改其上游输入) +- 不改变评论/点赞/收藏等非发布类自动化任务 + +## Decisions + +### D1: 智能排期引擎放在 `publish_queue.py` 中作为 `PublishQueue` 的方法 + +**决定**: 在 `PublishQueue` 类上新增 `suggest_schedule_time()` 和 `auto_schedule_item()` 方法。 + +**理由**: 排期引擎需要查询现有队列排期(避免时段冲突),`PublishQueue` 已持有 SQLite 连接和查询方法,放在此处可避免跨模块传递 db 连接。 + +**备选方案**: 独立模块 `schedule_engine.py` — 但会增加新文件,且仍需注入 `PublishQueue` 实例来查询已排期项。 + +### D2: `time_weights` 通过 `AnalyticsService.get_time_weights()` 新方法获取 + +**决定**: 在 `AnalyticsService` 上新增 `get_time_weights() -> dict` 方法,返回 `time_weights` 字典。无数据时返回默认值。 + +**理由**: 封装内部 `_weights` 结构,提供干净的 API 供排期引擎调用。 + +**默认时段**: 无分析数据时 fallback 到: `{"08-11时": 70, "12-14时": 60, "18-21时": 85, "21-24时": 75}`(小红书高流量经验值)。 + +### D3: 统一发布路径 — 调度器 publish 分支改为 generate_to_queue + auto_approve + +**决定**: `_scheduler_loop` 的自动发布分支改为调用 `generate_to_queue(auto_schedule=True, auto_approve=True)`,不再调用 `auto_publish_once` 内的发布逻辑。`auto_publish_once` 保留但重构为仅生成内容入队。 + +**理由**: +- 统一发布路径,所有内容都走队列审核流程 +- `QueuePublisher` 已有重试、错误处理、日志记录能力 +- 调度器生成的内容也会出现在队列表格和日历中,可追溯 + +**行为变化**: 调度器发布从「立即生成并发布」变为「生成入队 → QueuePublisher 下一轮 check(最多 60s)发布」。延迟可接受。 + +### D4: 时段冲突检测基于 SQLite 查询 + +**决定**: `suggest_schedule_time()` 查询 `queue` 表中 `scheduled_time` 列,统计每个时段已排队的数量,优先选择高权重且低负载的时段。 + +**规则**: +- 每个3小时段最多 `max_per_slot`(默认 2)篇 +- 同一天内最多 `max_per_day`(默认 5)篇 +- 优先当天还有空余的高权重时段,当天满则顺延到次日 +- 最远排到7天后 + +### D5: `generate_to_queue` 新增 `auto_schedule` 和 `auto_approve` 参数 + +**决定**: `generate_to_queue()` 签名增加 `auto_schedule: bool = False` 和 `auto_approve: bool = False`: +- `auto_schedule=True` → 调用 `PublishQueue.suggest_schedule_time()` 为每篇内容分配时间 +- `auto_approve=True` → 入队后自动调用 `approve()`,状态从 draft 直接变为 scheduled/approved + +**理由**: 最小改动,对现有手动流程无影响;调度器场景两者都开启,UI 场景用户可选。 + +### D6: UI 增加自动排期复选框和排期建议面板 + +**决定**: +- 在「批量生成到队列」区域增加 `auto_schedule` 复选框,勾选后隐藏手动排期输入框 +- 在日历视图旁增加「📊 推荐时段」Markdown 面板,展示 `time_weights` top 时段 + +**理由**: 最小 UI 变更,不重构现有布局。 + +## Risks / Trade-offs + +- **[排期延迟]** 调度器发布不再即时,会有最多 60s 延迟(QueuePublisher check 间隔)→ 对社交媒体发布场景可接受,且可通过缩短 `check_interval` 缓解 +- **[无数据 fallback]** 首次使用时 `time_weights` 为空,排期基于经验默认值 → 运行一段时间后数据学习会逐步优化 +- **[时段冲突查询性能]** 每次入队都需查询队列排期 → 队列规模通常 < 100 项,SQLite WAL 模式下查询性能无忧 +- **[auto_approve 安全性]** 调度器自动审核跳过人工审核 → 仅在调度器自动模式下启用,用户手动入队仍需审核 diff --git a/openspec/changes/archive/2026-02-28-optimize-content-scheduling/proposal.md b/openspec/changes/archive/2026-02-28-optimize-content-scheduling/proposal.md new file mode 100644 index 0000000..7cc6448 --- /dev/null +++ b/openspec/changes/archive/2026-02-28-optimize-content-scheduling/proposal.md @@ -0,0 +1,33 @@ +## Why + +当前系统存在两条独立的发布路径:`scheduler.py` 的 `auto_publish_once` 直接生成并发布,完全绕过队列;而 `PublishQueue` + `QueuePublisher` 提供了另一套排期发布机制。两套系统互不感知,导致: + +1. **排期时间全靠手动输入** — 用户必须自己判断最佳发布时间并以文本形式输入 `scheduled_time`,`analytics_service.py` 中已有的 `time_weights`(基于历史数据的3小时段权重)完全没有被利用。 +2. **调度器发布绕过队列** — 自动化调度器的发布操作不经过审核流程,没有草稿预览、排期管理的保障;而队列系统又缺少自动化生成能力,两者无法联动。 +3. **无内容分布控制** — 没有机制防止多篇内容扎堆发布,也没有将内容分散到高流量时段的能力。 + +## What Changes + +- 新增**智能排期引擎**:基于 `AnalyticsService` 的 `time_weights` 自动计算最佳发布时间槽(peak hours),为入队内容自动分配 `scheduled_time`,避免同一时段拥堵 +- 新增**自动排期模式**:内容生成入队时可选择"自动排期",系统自动跨天分散安排到高权重时段 +- 将调度器的 `auto_publish_once` 重构为**通过队列发布**,统一发布路径,所有发布都经过队列 → 审核 → 排期 → 发布的标准流程 +- 修改内容排期 UI,增加一键自动排期、排期建议、时段热力图展示 + +## Capabilities + +### New Capabilities + +- `smart-schedule-engine`: 智能排期引擎 — 基于 `time_weights` 分析数据计算最优发布时段,自动为队列项分配排期时间,支持内容间距控制和时段负载均衡 +- `unified-publish-path`: 统一发布路径 — 将 `scheduler.py` 的自动发布改为生成内容到队列 + 自动审核 + QueuePublisher 发布,消除绕过队列的直接发布 + +### Modified Capabilities + +- `services-queue`: 队列添加时支持 `auto_schedule=True` 参数调用智能排期引擎;`generate_to_queue` 新增自动排期选项 +- `services-scheduler`: `_scheduler_loop` 的 publish 分支改为调用 `generate_to_queue`(自动排期 + 自动审核),不再直接调用 `auto_publish_once` 的发布逻辑 + +## Impact + +- **代码变更**: `services/publish_queue.py`(新增排期引擎方法)、`services/queue_ops.py`(`generate_to_queue` 增加自动排期参数)、`services/scheduler.py`(publish 路径重构)、`services/analytics_service.py`(暴露 `time_weights` 查询接口)、`ui/app.py`(排期 UI 增强) +- **数据依赖**: 智能排期依赖 `content_weights.json` 中的 `time_weights` 字段;首次使用若无数据则 fallback 到默认高流量时段(08-10, 12-14, 18-22) +- **行为变更**: 调度器的自动发布不再即时发布,改为入队后由 QueuePublisher 按排期时间发布,会有分钟级延迟 +- **向后兼容**: 手动输入 `scheduled_time` 仍然有效,智能排期仅在用户未手动指定时生效 diff --git a/openspec/changes/archive/2026-02-28-optimize-content-scheduling/specs/services-queue/spec.md b/openspec/changes/archive/2026-02-28-optimize-content-scheduling/specs/services-queue/spec.md new file mode 100644 index 0000000..d55e69f --- /dev/null +++ b/openspec/changes/archive/2026-02-28-optimize-content-scheduling/specs/services-queue/spec.md @@ -0,0 +1,32 @@ +## MODIFIED Requirements + +### Requirement: 排期队列操作函数迁移至独立模块 +系统 SHALL 将内容排期队列相关函数从 `main.py` 提取至 `services/queue_ops.py`,包括:`generate_to_queue`、`_queue_publish_callback`、`queue_refresh_table`、`queue_refresh_calendar`、`queue_preview_item`、`queue_approve_item`、`queue_reject_item`、`queue_delete_item`、`queue_retry_item`、`queue_publish_now`、`queue_start_processor`、`queue_stop_processor`、`queue_get_status`、`queue_batch_approve`、`queue_generate_and_refresh`。 + +`generate_to_queue` SHALL 新增 `auto_schedule: bool = False` 和 `auto_approve: bool = False` 参数: +- 当 `auto_schedule=True` 时,SHALL 为每篇生成的内容调用 `PublishQueue.auto_schedule_item()` 自动分配排期时间 +- 当 `auto_approve=True` 时,SHALL 在入队后自动将状态从 `draft` 变为 `approved`(或 `scheduled`,如果有排期时间) + +#### Scenario: 模块导入成功 +- **WHEN** `main.py` 执行 `from services.queue_ops import queue_generate_and_refresh, queue_refresh_table` 等导入 +- **THEN** 所有函数可正常调用 + +#### Scenario: publish callback 在 main.py 完成注册 +- **WHEN** 应用启动时 `main.py` 调用 `pub_queue.set_publish_callback(_queue_publish_callback)`(`_queue_publish_callback` 已迁移至 `queue_ops.py`) +- **THEN** 队列发布回调 SHALL 正常注册并在队列处理时触发 + +#### Scenario: 队列操作读写 pub_queue 单例 +- **WHEN** `queue_ops.py` 中的函数需要访问 `pub_queue` 或 `queue_publisher` +- **THEN** 这些单例 SHALL 通过函数参数传入,不在 `queue_ops.py` 模块顶层初始化 + +#### Scenario: 自动排期生成 +- **WHEN** 调用 `generate_to_queue(auto_schedule=True)` 生成 3 篇内容 +- **THEN** 每篇内容入队后 SHALL 调用 `auto_schedule_item()` 分配排期时间,3 篇内容 SHALL 分配到不同时段 + +#### Scenario: 自动审核生成 +- **WHEN** 调用 `generate_to_queue(auto_approve=True)` +- **THEN** 入队项 SHALL 在添加后立即被审核通过,状态变为 `approved` 或 `scheduled` + +#### Scenario: queue_generate_and_refresh 传递新参数 +- **WHEN** UI 层调用 `queue_generate_and_refresh` 且用户勾选了自动排期 +- **THEN** `auto_schedule=True` SHALL 被传递到 `generate_to_queue` diff --git a/openspec/changes/archive/2026-02-28-optimize-content-scheduling/specs/services-scheduler/spec.md b/openspec/changes/archive/2026-02-28-optimize-content-scheduling/specs/services-scheduler/spec.md new file mode 100644 index 0000000..54abec1 --- /dev/null +++ b/openspec/changes/archive/2026-02-28-optimize-content-scheduling/specs/services-scheduler/spec.md @@ -0,0 +1,22 @@ +## MODIFIED Requirements + +### Requirement: 自动调度器函数迁移至独立模块 +系统 SHALL 将调度器相关的状态变量和函数从 `main.py` 提取至 `services/scheduler.py`,包括:`_scheduler_next_times`、`_auto_log`(列表)、`_auto_log_append`、`_scheduler_loop`、`start_scheduler`、`stop_scheduler`、`get_auto_log`、`get_scheduler_status`、`_learn_running`、`_learn_scheduler_loop`、`start_learn_scheduler`、`stop_learn_scheduler`。 + +`_scheduler_loop` 中的自动发布分支 SHALL 改为调用 `generate_to_queue(auto_schedule=True, auto_approve=True)` 生成内容入队,不再调用 `auto_publish_once` 中的 MCP client 直接发布逻辑。 + +#### Scenario: 调度器启停正常工作 +- **WHEN** `start_scheduler(...)` 被调用并传入合法参数 +- **THEN** 调度器线程 SHALL 正常启动,`get_scheduler_status()` 返回运行中状态 + +#### Scenario: 日志追加线程安全 +- **WHEN** 多个自动化任务并发调用 `_auto_log_append(msg)` +- **THEN** 日志条目 SHALL 正确追加,不丢失和乱序 + +#### Scenario: engagement 通过回调写日志 +- **WHEN** `services/engagement.py` 中的函数需要写日志时 +- **THEN** SHALL 通过 `log_fn` 参数(由 `scheduler.py` 传入 `_auto_log_append`)写入,不直接导入 `scheduler.py` + +#### Scenario: 自动发布走队列路径 +- **WHEN** `_scheduler_loop` 中 `publish_enabled=True` 且到达发布时间 +- **THEN** SHALL 调用 `generate_to_queue(auto_schedule=True, auto_approve=True)` 替代直接发布,日志记录入队结果 diff --git a/openspec/changes/archive/2026-02-28-optimize-content-scheduling/specs/smart-schedule-engine/spec.md b/openspec/changes/archive/2026-02-28-optimize-content-scheduling/specs/smart-schedule-engine/spec.md new file mode 100644 index 0000000..0d57239 --- /dev/null +++ b/openspec/changes/archive/2026-02-28-optimize-content-scheduling/specs/smart-schedule-engine/spec.md @@ -0,0 +1,45 @@ +## ADDED Requirements + +### Requirement: 最优时段计算 +系统 SHALL 基于 `AnalyticsService` 的 `time_weights` 数据计算每个 3 小时段的权重得分,并按得分降序排列为候选时段列表。 + +#### Scenario: 有分析数据时按权重排序 +- **WHEN** `time_weights` 包含至少 1 个时段的权重数据 +- **THEN** `suggest_schedule_time()` SHALL 按 `weight` 值降序排列时段,优先返回高权重时段的具体时间 + +#### Scenario: 无分析数据时使用默认时段 +- **WHEN** `time_weights` 为空字典或不存在 +- **THEN** 系统 SHALL 使用默认的高流量时段作为候选:08-11 时(权重 70)、12-14 时(权重 60)、18-21 时(权重 85)、21-24 时(权重 75) + +### Requirement: 时段冲突检测 +系统 SHALL 在分配排期时间前查询已有队列排期,避免同一时段内容拥堵。 + +#### Scenario: 单时段内容上限控制 +- **WHEN** 某个 3 小时时段中已排期的队列项数量达到 `max_per_slot`(默认 2) +- **THEN** 系统 SHALL 跳过该时段,选择下一个权重最高且有空余的时段 + +#### Scenario: 单日内容上限控制 +- **WHEN** 某天的已排期总数达到 `max_per_day`(默认 5) +- **THEN** 系统 SHALL 将内容排期到次日的最优可用时段 + +#### Scenario: 最远排期范围 +- **WHEN** 未来 7 天内所有时段均已满 +- **THEN** `suggest_schedule_time()` SHALL 返回 `None`,内容以 approved 状态入队(不带排期时间) + +### Requirement: 排期时间精确化 +系统 SHALL 在选定的 3 小时段内随机选择一个精确的分钟级时间点,避免所有内容在整点发布。 + +#### Scenario: 时段内随机时间 +- **WHEN** 系统选定 18-21 时段为最优 +- **THEN** SHALL 在该时段范围内随机生成精确时间(如 `2026-02-28 19:37:00`),格式为 `%Y-%m-%d %H:%M:%S` + +### Requirement: 队列项自动排期 +`PublishQueue` SHALL 提供 `auto_schedule_item(item_id, analytics)` 方法,为指定队列项调用排期引擎并更新其 `scheduled_time`。 + +#### Scenario: 自动排期成功 +- **WHEN** 调用 `auto_schedule_item(item_id, analytics)` 且队列项状态为 draft 或 approved +- **THEN** 系统 SHALL 计算最优时间并更新该项的 `scheduled_time` 和状态为 `scheduled` + +#### Scenario: 自动排期无可用时段 +- **WHEN** 调用 `auto_schedule_item()` 但未来 7 天无可用时段 +- **THEN** 系统 SHALL 保持队列项当前状态不变,返回 `False` diff --git a/openspec/changes/archive/2026-02-28-optimize-content-scheduling/specs/unified-publish-path/spec.md b/openspec/changes/archive/2026-02-28-optimize-content-scheduling/specs/unified-publish-path/spec.md new file mode 100644 index 0000000..ce99fb1 --- /dev/null +++ b/openspec/changes/archive/2026-02-28-optimize-content-scheduling/specs/unified-publish-path/spec.md @@ -0,0 +1,23 @@ +## ADDED Requirements + +### Requirement: 调度器发布通过队列执行 +`_scheduler_loop` 中的自动发布分支 SHALL 调用 `generate_to_queue(auto_schedule=True, auto_approve=True)` 替代 `auto_publish_once` 中的直接发布逻辑。 + +#### Scenario: 调度器触发自动发布 +- **WHEN** `_scheduler_loop` 的 publish 定时触发且 `publish_enabled=True` +- **THEN** 系统 SHALL 调用 `generate_to_queue` 生成内容入队(带 `auto_schedule=True, auto_approve=True`),不再直接调用 MCP client 发布 + +#### Scenario: 发布由 QueuePublisher 完成 +- **WHEN** 调度器生成的内容入队后 +- **THEN** `QueuePublisher._loop()` SHALL 在下一次检查循环中检测到该排期/待发布项并执行实际发布 + +### Requirement: auto_publish_once 重构为入队操作 +`auto_publish_once` SHALL 重构为仅生成内容并加入队列,不再包含直接调用 MCP client publish 的逻辑。 + +#### Scenario: auto_publish_once 返回入队结果 +- **WHEN** 调用 `auto_publish_once` +- **THEN** 函数 SHALL 生成文案和图片、调用 `generate_to_queue` 入队,返回队列项 ID 和排期时间信息 + +#### Scenario: QueuePublisher 未运行时的提示 +- **WHEN** `auto_publish_once` 成功入队但 `QueuePublisher` 未启动 +- **THEN** 返回信息中 SHALL 包含提示「内容已入队,请启动队列处理器以自动发布」 diff --git a/openspec/changes/archive/2026-02-28-optimize-content-scheduling/tasks.md b/openspec/changes/archive/2026-02-28-optimize-content-scheduling/tasks.md new file mode 100644 index 0000000..66587b9 --- /dev/null +++ b/openspec/changes/archive/2026-02-28-optimize-content-scheduling/tasks.md @@ -0,0 +1,34 @@ +## 1. AnalyticsService 时段权重接口 + +- [x] 1.1 在 `services/analytics_service.py` 新增 `get_time_weights() -> dict` 方法,返回 `time_weights` 字典;无数据时返回默认高流量时段 `{"08-11时": 70, "12-14时": 60, "18-21时": 85, "21-24时": 75}` + +## 2. 智能排期引擎 (PublishQueue) + +- [x] 2.1 在 `services/publish_queue.py` 的 `PublishQueue` 类新增 `suggest_schedule_time(analytics, max_per_slot=2, max_per_day=5) -> str | None` 方法:查询未来 7 天各时段已排期数量,结合 `analytics.get_time_weights()` 权重,返回最优排期时间(格式 `%Y-%m-%d %H:%M:%S`),所有时段满时返回 `None` +- [x] 2.2 在 `PublishQueue` 新增 `auto_schedule_item(item_id, analytics, max_per_slot=2, max_per_day=5) -> bool` 方法:调用 `suggest_schedule_time()` 并更新队列项的 `scheduled_time` + 状态为 `scheduled`,无可用时段返回 `False` +- [x] 2.3 在 `PublishQueue` 新增 `get_slot_usage(days=7) -> dict` 辅助方法:查询未来 N 天各日期各时段已排期的数量,供排期引擎和 UI 热力图使用 + +## 3. generate_to_queue 增加自动排期参数 + +- [x] 3.1 修改 `services/queue_ops.py` 中 `generate_to_queue()` 签名,新增 `auto_schedule: bool = False` 和 `auto_approve: bool = False` 参数 +- [x] 3.2 在 `generate_to_queue` 入队循环中,`auto_schedule=True` 时调用 `_pub_queue.auto_schedule_item(item_id, _analytics)` 为每篇内容自动分配排期时间 +- [x] 3.3 在 `generate_to_queue` 入队循环中,`auto_approve=True` 时调用 `_pub_queue.approve(item_id)` 自动审核通过 +- [x] 3.4 修改 `queue_generate_and_refresh()` 签名,新增 `auto_schedule` 参数并传递给 `generate_to_queue` + +## 4. 统一发布路径 (scheduler) + +- [x] 4.1 修改 `services/scheduler.py` 中 `_scheduler_loop` 的自动发布分支:将 `auto_publish_once(...)` 调用替换为 `generate_to_queue(auto_schedule=True, auto_approve=True, count=1, ...)`,记录入队日志 +- [x] 4.2 重构 `auto_publish_once`:移除直接 MCP client 发布逻辑,改为调用 `generate_to_queue(auto_schedule=True, auto_approve=True, count=1)`,保留函数签名供向后兼容 +- [x] 4.3 在 `queue_ops.py` 的 `configure()` 中新增 `_analytics` 注入(如尚未注入),确保 `auto_schedule_item` 可获取分析服务 + +## 5. UI 排期增强 + +- [x] 5.1 在 `ui/app.py` 的「批量生成到队列」区域新增 `gr.Checkbox(label="🤖 自动排期", value=False)` 组件,勾选后隐藏手动排期输入框 +- [x] 5.2 修改批量生成按钮事件绑定,将自动排期复选框状态作为参数传入 `queue_generate_and_refresh` +- [x] 5.3 在日历视图旁新增「📊 推荐时段」`gr.Markdown` 面板,调用 `analytics.get_time_weights()` 展示各时段权重和建议 + +## 6. 验证 + +- [x] 6.1 `ast.parse()` 验证所有修改文件语法正确 +- [ ] 6.2 手动测试:生成内容到队列并启用自动排期,确认 `scheduled_time` 被正确分配且不冲突 +- [ ] 6.3 手动测试:调度器自动发布走队列路径,确认内容出现在队列表格中 diff --git a/openspec/changes/archive/2026-02-28-optimize-hotspot-detection/.openspec.yaml b/openspec/changes/archive/2026-02-28-optimize-hotspot-detection/.openspec.yaml new file mode 100644 index 0000000..34b5b23 --- /dev/null +++ b/openspec/changes/archive/2026-02-28-optimize-hotspot-detection/.openspec.yaml @@ -0,0 +1,2 @@ +schema: spec-driven +created: 2026-02-28 diff --git a/openspec/changes/archive/2026-02-28-optimize-hotspot-detection/design.md b/openspec/changes/archive/2026-02-28-optimize-hotspot-detection/design.md new file mode 100644 index 0000000..209004c --- /dev/null +++ b/openspec/changes/archive/2026-02-28-optimize-hotspot-detection/design.md @@ -0,0 +1,99 @@ +## Context + +当前 `services/hotspot.py` 提供三个纯函数式的热点功能:`search_hotspots`(搜索)、`analyze_and_suggest`(LLM 分析)、`generate_from_hotspot`(基于热点生成文案)。分析结果在函数内部被渲染成 Markdown 后直接返回 UI,结构化数据(`hot_topics`、`suggestions` 等)即刻丢失。 + +`services/scheduler.py` 已有一套成熟的定时调度模式(`_scheduler_loop` + `threading.Event` + daemon thread),可以复用此模式实现热点自动采集。 + +`services/topic_engine.py` 的 `TopicEngine.recommend_topics(hotspot_data=...)` 已支持接收热点数据但从未被实际传入。 + +`services/config_manager.py` 使用单例 + JSON 持久化,新增配置节点零改动即可被 `cfg.get()` 读取。 + +## Goals / Non-Goals + +**Goals:** + +- 让分析结果在内存中以结构化形式持续可用,供生成和选题引擎消费 +- 让用户在热点 UI 中直接从分析出的建议列表选择选题,而非手动输入 +- 提供后台自动热点采集,无需人工触发即可获得最新热点数据 +- 将热点分析数据桥接到 TopicEngine,使智能选题获得热点维度加权 + +**Non-Goals:** + +- 不做热点数据持久化到磁盘(进程内缓存即可,重启后重新采集) +- 不修改 LLM prompt 或分析逻辑(`LLMService.analyze_hotspots` 保持不变) +- 不改造现有调度器架构(复用已有 `threading.Event` + loop 模式) +- 不增加新的外部依赖 + +## Decisions + +### D1: 模块级状态 + RLock 存储分析结果 + +**选择**:在 `services/hotspot.py` 中新增 `_last_analysis: dict | None` 和对应的 `get_last_analysis()` / `set_last_analysis()` 线程安全接口,复用已有的 `_cache_lock`(RLock)。 + +**替代方案**: +- 单独的 `HotspotState` 类 — 过度封装,模块内部状态无需类化 +- 写入文件持久化 — 增加 IO 复杂度,热点数据本身时效性短,内存缓存足够 + +**理由**:与已有的 `_cached_proactive_entries` 模式一致,最小改动,线程安全由已有的 `_cache_lock` 覆盖。 + +### D2: `analyze_and_suggest` 副作用写入状态 + +**选择**:在 `analyze_and_suggest` 函数中,调用 `svc.analyze_hotspots()` 获得 `analysis` dict 后,先调用 `set_last_analysis(analysis)` 缓存,再渲染 Markdown 返回 UI。 + +**理由**:无需改变函数签名和返回值,对现有 UI 绑定零破坏。 + +### D3: 热点选题下拉组件 + +**选择**:在热点探测 UI(`ui/app.py`)中新增 `gr.Dropdown`(选题下拉),当 `analyze_and_suggest` 完成后动态更新下拉选项为 `suggestions` 的 `topic` 列表。选中后写入 `topic_from_hot` Textbox。 + +**替代方案**: +- 用 Radio 按钮 — 选项数量不固定,Dropdown 更适合 +- 保持现有 Textbox 手动输入 — 无法利用分析出的建议 + +**理由**:Gradio `gr.Dropdown` 支持 `gr.update(choices=...)` 动态更新,与已有的笔记列表下拉模式一致。 + +### D4: `generate_from_hotspot` 增强上下文 + +**选择**:新增可选参数 `analysis_summary: str = None`。若提供,将其拼入 `reference_notes` 前部(结构化摘要 + 原始片段),总长度仍限制在 3000 字符以内。函数内部同时尝试从 `get_last_analysis()` 自动获取摘要。 + +**理由**:向后兼容,现有调用方无需修改。 + +### D5: TopicEngine 桥接 + +**选择**:新增独立函数 `feed_hotspot_to_engine(topic_engine: TopicEngine)` 在 `services/hotspot.py` 中。该函数读取 `get_last_analysis()`,调用 `topic_engine.recommend_topics(hotspot_data=data)`。 + +**替代方案**: +- 在 `TopicEngine` 中直接引用 `hotspot.get_last_analysis()` — 导致循环依赖风险 +- 在 UI 层手动传递 — 增加 UI 复杂度 + +**理由**:单向依赖(hotspot → topic_engine),职责清晰。 + +### D6: 自动采集任务集成到调度器 + +**选择**:在 `services/scheduler.py` 中新增独立的 `_hotspot_collector_loop` + `start_hotspot_collector` / `stop_hotspot_collector`,复用现有的 `threading.Event` + daemon thread 模式。与已有 `_learn_scheduler_loop` 模式完全对齐。 + +**配置节点**:`config.json` 新增 `hotspot_auto_collect` 对象: +```json +{ + "hotspot_auto_collect": { + "enabled": false, + "keywords": ["穿搭", "美妆", "好物"], + "interval_hours": 4 + } +} +``` + +**采集流程**:每个 interval → 遍历 keywords → 调用 `search_hotspots` + `analyze_and_suggest`(复用现有函数) → 结果自动写入 `_last_analysis` 状态 → 休眠至下个周期。 + +**替代方案**: +- 合并到现有 `_scheduler_loop` — 该循环参数已经过多,耦合度太高 +- 使用 APScheduler 等库 — 引入新依赖,不符合项目风格 + +**理由**:独立线程与已有调度器互不干扰,可独立启停。 + +## Risks / Trade-offs + +- **内存状态丢失** → 进程重启后 `_last_analysis` 为空,自动采集线程会在首个 interval 后重新填充,可接受 +- **多关键词分析结果覆盖** → 遍历多个 keywords 时后者覆盖前者的分析结果 → 采用合并策略:新分析的 `hot_topics` 和 `suggestions` 追加到已有列表并去重 +- **LLM 调用频率** → 自动采集每个关键词都需调用一次 LLM → 通过 `interval_hours`(默认 4 小时)+ keywords 数量(默认 3 个)控制成本 +- **线程安全竞态** → 手动分析和自动采集可能同时写入 `_last_analysis` → `_cache_lock`(RLock)已覆盖 diff --git a/openspec/changes/archive/2026-02-28-optimize-hotspot-detection/proposal.md b/openspec/changes/archive/2026-02-28-optimize-hotspot-detection/proposal.md new file mode 100644 index 0000000..c2d804e --- /dev/null +++ b/openspec/changes/archive/2026-02-28-optimize-hotspot-detection/proposal.md @@ -0,0 +1,34 @@ +## Why + +当前热点探测流程存在两个问题: + +1. **数据流断裂**:`analyze_and_suggest` 调用 LLM 分析出的结构化数据(热门选题列表、推荐建议)在渲染成 Markdown 后即被丢弃,后续生成环节拿到的 `topic_from_hotspot` 仍是原始搜索关键词,与分析结论完全脱节;分析结果也从未传入 `TopicEngine` 评分体系,导致智能选题引擎无热点输入可用。 +2. **完全依赖手动触发**:热点搜索和分析没有自动化机制,需要用户每次手动点击「搜索」和「AI 分析」才能获取最新热点;调度器已具备定时任务能力(`services/scheduler.py`),但从未被用于热点采集,导致系统在无人操作时完全感知不到当前热点变化。 + +## What Changes + +- **保留结构化分析结果**:`analyze_and_suggest` 将 LLM 返回的 `dict` 缓存至模块级状态,UI 层仍显示 Markdown,但结构数据可供后续环节使用 +- **修复选题传递逻辑**:将"推荐选题"下拉列表绑定到解析后的 `suggestions`,用户选择某条建议后 `topic_from_hotspot` 填入该建议标题,而非搜索关键词 +- **扩大生成参考上下文**:`generate_from_hotspot` 同时接收结构化分析摘要 + 原始搜索片段,替换现有的粗暴 `[:2000]` 截断 +- **接入 TopicEngine**:分析完成后将 `hotspot_data` 注入 `TopicEngine.recommend_topics()`,使智能选题 Tab 可获得热点加权推荐 +- **自动采集热点**:在调度器中新增定时热点采集任务,按配置的关键词列表和间隔自动执行「搜索 → LLM 分析 → 更新状态缓存」全流程,结果写入 `_last_analysis`,UI 打开时可直接读取最新数据 + +## Capabilities + +### New Capabilities + +- `hotspot-analysis-state`:在 `services/hotspot.py` 中维护会话级结构化分析状态(`_last_analysis`),供同模块其他函数读取;提供 `get_last_analysis()` / `set_last_analysis()` 线程安全存取接口 +- `hotspot-topic-selector`:在热点探测 UI 中新增"选题下拉"组件,由分析结果的 `suggestions` 动态填充,选中后自动写入 `topic_from_hotspot` +- `hotspot-engine-bridge`:新增 `feed_hotspot_to_engine(hotspot_data, topic_engine)` 函数,将热点分析结果注入 `TopicEngine`,使其 `recommend_topics()` 获得实时热点评分 +- `hotspot-auto-collector`:在调度器中新增 `schedule_hotspot_collection(keywords, interval_hours, mcp_url, llm_model)` 函数,按间隔自动执行热点搜索与 LLM 分析,结果写入 `hotspot-analysis-state`;配置项存储于 `config.json` 的 `hotspot_auto_collect` 节点(`enabled`、`keywords`、`interval_hours`) + +### Modified Capabilities + +- `services-hotspot`:`analyze_and_suggest` 返回值新增结构化分析状态的副作用写入;`generate_from_hotspot` 签名扩展,接受可选的 `analysis_summary` 参数用于增强生成上下文 + +## Impact + +- **代码**:`services/hotspot.py`(主要改动)、`services/scheduler.py`(新增定时采集任务)、`ui/app.py`(新增下拉组件绑定)、`services/topic_engine.py`(调用方新增 hotspot 输入)、`services/config_manager.py`(新增 `hotspot_auto_collect` 配置节点) +- **API**:`generate_from_hotspot` 函数签名向后兼容(新增可选参数) +- **依赖**:无新增外部依赖 +- **数据**:分析状态为进程内内存缓存,不持久化;自动采集配置持久化至 `config.json` diff --git a/openspec/changes/archive/2026-02-28-optimize-hotspot-detection/specs/hotspot-analysis-state/spec.md b/openspec/changes/archive/2026-02-28-optimize-hotspot-detection/specs/hotspot-analysis-state/spec.md new file mode 100644 index 0000000..313f0e4 --- /dev/null +++ b/openspec/changes/archive/2026-02-28-optimize-hotspot-detection/specs/hotspot-analysis-state/spec.md @@ -0,0 +1,27 @@ +## ADDED Requirements + +### Requirement: 会话级结构化分析状态存储 +系统 SHALL 在 `services/hotspot.py` 中维护一个模块级变量 `_last_analysis: dict | None`,用于保存最近一次热点分析的完整结构化结果。 + +#### Scenario: 初始状态为空 +- **WHEN** 应用启动且尚未执行任何热点分析 +- **THEN** `get_last_analysis()` SHALL 返回 `None` + +#### Scenario: 分析完成后自动写入 +- **WHEN** `analyze_and_suggest` 成功调用 `LLMService.analyze_hotspots()` 并获得结构化 dict +- **THEN** 系统 SHALL 调用 `set_last_analysis(analysis)` 将结果写入 `_last_analysis` + +#### Scenario: 并发安全 +- **WHEN** 多个线程同时调用 `get_last_analysis()` 和 `set_last_analysis()` +- **THEN** 所有读写操作 SHALL 通过 `_cache_lock`(RLock)互斥,不发生数据竞态 + +### Requirement: 线程安全的分析状态存取接口 +系统 SHALL 提供 `get_last_analysis() -> dict | None` 和 `set_last_analysis(data: dict) -> None` 两个公开函数。 + +#### Scenario: get_last_analysis 返回深拷贝 +- **WHEN** 调用 `get_last_analysis()` +- **THEN** SHALL 返回 `_last_analysis` 的副本(而非引用),防止外部修改影响缓存 + +#### Scenario: set_last_analysis 合并多关键词结果 +- **WHEN** 调用 `set_last_analysis(new_data)` 且 `_last_analysis` 已有数据 +- **THEN** SHALL 将 `new_data` 的 `hot_topics` 和 `suggestions` 追加到已有列表并去重,而非完全覆盖 diff --git a/openspec/changes/archive/2026-02-28-optimize-hotspot-detection/specs/hotspot-auto-collector/spec.md b/openspec/changes/archive/2026-02-28-optimize-hotspot-detection/specs/hotspot-auto-collector/spec.md new file mode 100644 index 0000000..00ab683 --- /dev/null +++ b/openspec/changes/archive/2026-02-28-optimize-hotspot-detection/specs/hotspot-auto-collector/spec.md @@ -0,0 +1,31 @@ +## ADDED Requirements + +### Requirement: 定时热点自动采集任务 +系统 SHALL 在 `services/scheduler.py` 中提供 `start_hotspot_collector` / `stop_hotspot_collector` 函数,启动独立的后台线程按固定间隔自动采集热点。 + +#### Scenario: 启动自动采集 +- **WHEN** 调用 `start_hotspot_collector(keywords, interval_hours, mcp_url, model)` +- **THEN** 系统 SHALL 启动一个 daemon 线程,在首次启动后立即执行一轮采集,随后按 `interval_hours` 间隔循环执行 + +#### Scenario: 单轮采集流程 +- **WHEN** 采集线程执行一轮任务 +- **THEN** SHALL 遍历 `keywords` 列表,对每个关键词依次调用 `search_hotspots(keyword, "最多点赞", mcp_url)` 获取搜索结果,再调用 `analyze_and_suggest(model, keyword, search_result)` 执行 LLM 分析,分析结果通过 `set_last_analysis()` 合并写入状态缓存 + +#### Scenario: 停止自动采集 +- **WHEN** 调用 `stop_hotspot_collector()` +- **THEN** 系统 SHALL 清除运行标志,等待线程优雅退出 + +#### Scenario: 防止重复启动 +- **WHEN** 自动采集已在运行中再次调用 `start_hotspot_collector` +- **THEN** SHALL 返回警告信息,不启动新线程 + +### Requirement: 热点自动采集配置 +系统 SHALL 支持通过 `config.json` 的 `hotspot_auto_collect` 节点配置自动采集参数。 + +#### Scenario: 配置节点结构 +- **WHEN** 读取 `config.json` 中的 `hotspot_auto_collect` +- **THEN** 该节点 SHALL 包含以下字段:`enabled`(bool,默认 false)、`keywords`(string list,默认 `["穿搭", "美妆", "好物"]`)、`interval_hours`(int,默认 4) + +#### Scenario: 配置缺失时使用默认值 +- **WHEN** `config.json` 中不存在 `hotspot_auto_collect` 节点 +- **THEN** `ConfigManager.get("hotspot_auto_collect")` SHALL 返回默认值 `{"enabled": false, "keywords": ["穿搭", "美妆", "好物"], "interval_hours": 4}` diff --git a/openspec/changes/archive/2026-02-28-optimize-hotspot-detection/specs/hotspot-engine-bridge/spec.md b/openspec/changes/archive/2026-02-28-optimize-hotspot-detection/specs/hotspot-engine-bridge/spec.md new file mode 100644 index 0000000..e37255b --- /dev/null +++ b/openspec/changes/archive/2026-02-28-optimize-hotspot-detection/specs/hotspot-engine-bridge/spec.md @@ -0,0 +1,16 @@ +## ADDED Requirements + +### Requirement: 热点数据注入 TopicEngine +系统 SHALL 提供 `feed_hotspot_to_engine(topic_engine: TopicEngine) -> list[dict]` 函数,将缓存的热点分析结果传入 `TopicEngine.recommend_topics()`。 + +#### Scenario: 有缓存分析结果时注入并返回推荐 +- **WHEN** 调用 `feed_hotspot_to_engine(topic_engine)` 且 `get_last_analysis()` 返回非空 dict +- **THEN** SHALL 调用 `topic_engine.recommend_topics(hotspot_data=data)` 并返回推荐结果列表 + +#### Scenario: 无缓存分析结果时返回空推荐 +- **WHEN** 调用 `feed_hotspot_to_engine(topic_engine)` 且 `get_last_analysis()` 返回 `None` +- **THEN** SHALL 调用 `topic_engine.recommend_topics(hotspot_data=None)` 并返回其结果(仅基于权重数据推荐) + +#### Scenario: 函数位于 hotspot 模块避免循环依赖 +- **WHEN** `feed_hotspot_to_engine` 被定义 +- **THEN** SHALL 位于 `services/hotspot.py` 中,接受 `TopicEngine` 实例作为参数,不在 `topic_engine.py` 中反向引用 hotspot 模块 diff --git a/openspec/changes/archive/2026-02-28-optimize-hotspot-detection/specs/hotspot-topic-selector/spec.md b/openspec/changes/archive/2026-02-28-optimize-hotspot-detection/specs/hotspot-topic-selector/spec.md new file mode 100644 index 0000000..85dea7c --- /dev/null +++ b/openspec/changes/archive/2026-02-28-optimize-hotspot-detection/specs/hotspot-topic-selector/spec.md @@ -0,0 +1,16 @@ +## ADDED Requirements + +### Requirement: 热点选题下拉组件 +系统 SHALL 在热点探测 Tab 中新增一个 `gr.Dropdown` 组件,用于展示 LLM 分析出的推荐选题列表。 + +#### Scenario: 分析完成后动态填充下拉选项 +- **WHEN** `analyze_and_suggest` 执行完成并返回分析结果 +- **THEN** 下拉组件 SHALL 通过 `gr.update(choices=...)` 更新为分析结果中 `suggestions` 列表的 `topic` 字段值 + +#### Scenario: 用户选择下拉项后写入选题输入框 +- **WHEN** 用户在下拉组件中选择一条推荐选题 +- **THEN** 系统 SHALL 将选中的 `topic` 文本自动填入 `topic_from_hot` Textbox + +#### Scenario: 无分析结果时下拉为空 +- **WHEN** 尚未执行热点分析或分析结果中无 `suggestions` +- **THEN** 下拉组件 SHALL 显示空选项列表,不影响用户手动输入选题 diff --git a/openspec/changes/archive/2026-02-28-optimize-hotspot-detection/specs/services-hotspot/spec.md b/openspec/changes/archive/2026-02-28-optimize-hotspot-detection/specs/services-hotspot/spec.md new file mode 100644 index 0000000..1e45a48 --- /dev/null +++ b/openspec/changes/archive/2026-02-28-optimize-hotspot-detection/specs/services-hotspot/spec.md @@ -0,0 +1,23 @@ +## MODIFIED Requirements + +### Requirement: 热点探测函数迁移至独立模块 +系统 SHALL 将热点搜索与分析相关函数从 `main.py` 提取至 `services/hotspot.py`,包括:`search_hotspots`、`analyze_and_suggest`、`generate_from_hotspot`、`_set_cache`、`_get_cache`、`_fetch_and_cache`、`_pick_from_cache`、`fetch_proactive_notes`、`on_proactive_note_selected`。 + +新增对外接口:`get_last_analysis`、`set_last_analysis`、`feed_hotspot_to_engine`。 + +#### Scenario: 模块导入成功 +- **WHEN** `main.py` 执行 `from services.hotspot import search_hotspots, analyze_and_suggest` 等导入 +- **THEN** 所有函数可正常调用 + +#### Scenario: 线程安全缓存随模块迁移 +- **WHEN** `_cache_lock`(`threading.RLock`)随函数一起迁移至 `services/hotspot.py` +- **THEN** `_set_cache` / `_get_cache` / `get_last_analysis` / `set_last_analysis` 的线程安全行为保持不变 + +#### Scenario: analyze_and_suggest 写入分析状态 +- **WHEN** `analyze_and_suggest` 成功获得 LLM 分析结果 +- **THEN** SHALL 在渲染 Markdown 之前调用 `set_last_analysis(analysis)` 缓存结构化数据 +- **AND** 返回值格式不变(status, summary, keyword) + +#### Scenario: generate_from_hotspot 支持增强上下文 +- **WHEN** 调用 `generate_from_hotspot` 生成文案 +- **THEN** 函数 SHALL 自动从 `get_last_analysis()` 获取结构化摘要,与 `search_result` 拼接后传入 `svc.generate_copy_with_reference()`,总参考文本限制在 3000 字符以内 diff --git a/openspec/changes/archive/2026-02-28-optimize-hotspot-detection/tasks.md b/openspec/changes/archive/2026-02-28-optimize-hotspot-detection/tasks.md new file mode 100644 index 0000000..5fd4b37 --- /dev/null +++ b/openspec/changes/archive/2026-02-28-optimize-hotspot-detection/tasks.md @@ -0,0 +1,36 @@ +## 1. 分析状态缓存(hotspot-analysis-state) + +- [x] 1.1 在 `services/hotspot.py` 中新增模块级变量 `_last_analysis: dict | None = None` +- [x] 1.2 实现 `get_last_analysis() -> dict | None`:加 `_cache_lock` 锁,返回 `_last_analysis` 的深拷贝 +- [x] 1.3 实现 `set_last_analysis(data: dict) -> None`:加 `_cache_lock` 锁,合并 `hot_topics` 和 `suggestions`(去重),更新 `_last_analysis` +- [x] 1.4 在 `analyze_and_suggest` 中添加 `set_last_analysis(analysis)` 调用(在渲染 Markdown 之前) + +## 2. 修改 services-hotspot 已有函数 + +- [x] 2.1 修改 `generate_from_hotspot`:在函数内部调用 `get_last_analysis()` 获取结构化摘要,拼接到 `reference_notes` 前部,总长度限制 3000 字符 +- [x] 2.2 在 `services/hotspot.py` 的 `__init__.py` 或模块顶部导出新增函数:`get_last_analysis`、`set_last_analysis`、`feed_hotspot_to_engine` + +## 3. 热点选题下拉组件(hotspot-topic-selector) + +- [x] 3.1 在 `ui/app.py` 热点探测 Tab 中新增 `gr.Dropdown` 组件(label="推荐选题") +- [x] 3.2 修改 `analyze_and_suggest` 的返回值处理:新增第四个输出绑定到 Dropdown 的 `gr.update(choices=...)`,choices 从 `suggestions` 提取 `topic` 列表 +- [x] 3.3 绑定 Dropdown 的 `change` 事件:选中后将 `topic` 写入 `topic_from_hot` Textbox + +## 4. TopicEngine 桥接(hotspot-engine-bridge) + +- [x] 4.1 在 `services/hotspot.py` 中实现 `feed_hotspot_to_engine(topic_engine) -> list[dict]`:读取 `get_last_analysis()`,调用 `topic_engine.recommend_topics(hotspot_data=data)` +- [x] 4.2 在智能选题相关 UI 中,调用 `feed_hotspot_to_engine` 传入 TopicEngine 实例,使选题推荐获得热点加权 + +## 5. 自动采集任务(hotspot-auto-collector) + +- [x] 5.1 在 `services/config_manager.py` 的 `DEFAULT_CONFIG` 中添加 `hotspot_auto_collect` 默认配置节点 +- [x] 5.2 在 `services/scheduler.py` 中新增 `_hotspot_collector_running = threading.Event()` 和 `_hotspot_collector_thread` 状态变量 +- [x] 5.3 实现 `_hotspot_collector_loop(keywords, interval_hours, mcp_url, model)`:遍历 keywords 执行搜索 + 分析,结果写入 `set_last_analysis()`,休眠 `interval_hours` +- [x] 5.4 实现 `start_hotspot_collector(keywords, interval_hours, mcp_url, model)` 和 `stop_hotspot_collector()` +- [x] 5.5 在 UI 中(调度器设置或热点 Tab)添加自动采集的启停控件和状态显示 + +## 6. 验证与收尾 + +- [x] 6.1 运行 `ast.parse()` 验证所有修改文件语法正确 +- [ ] 6.2 手动测试:搜索 → 分析 → 查看 `get_last_analysis()` 有值 → 下拉组件填充 → 选题写入 → 生成文案引用分析摘要 +- [ ] 6.3 手动测试:启动自动采集 → 等待一轮完成 → 确认状态缓存更新 diff --git a/openspec/specs/hotspot-analysis-state/spec.md b/openspec/specs/hotspot-analysis-state/spec.md new file mode 100644 index 0000000..313f0e4 --- /dev/null +++ b/openspec/specs/hotspot-analysis-state/spec.md @@ -0,0 +1,27 @@ +## ADDED Requirements + +### Requirement: 会话级结构化分析状态存储 +系统 SHALL 在 `services/hotspot.py` 中维护一个模块级变量 `_last_analysis: dict | None`,用于保存最近一次热点分析的完整结构化结果。 + +#### Scenario: 初始状态为空 +- **WHEN** 应用启动且尚未执行任何热点分析 +- **THEN** `get_last_analysis()` SHALL 返回 `None` + +#### Scenario: 分析完成后自动写入 +- **WHEN** `analyze_and_suggest` 成功调用 `LLMService.analyze_hotspots()` 并获得结构化 dict +- **THEN** 系统 SHALL 调用 `set_last_analysis(analysis)` 将结果写入 `_last_analysis` + +#### Scenario: 并发安全 +- **WHEN** 多个线程同时调用 `get_last_analysis()` 和 `set_last_analysis()` +- **THEN** 所有读写操作 SHALL 通过 `_cache_lock`(RLock)互斥,不发生数据竞态 + +### Requirement: 线程安全的分析状态存取接口 +系统 SHALL 提供 `get_last_analysis() -> dict | None` 和 `set_last_analysis(data: dict) -> None` 两个公开函数。 + +#### Scenario: get_last_analysis 返回深拷贝 +- **WHEN** 调用 `get_last_analysis()` +- **THEN** SHALL 返回 `_last_analysis` 的副本(而非引用),防止外部修改影响缓存 + +#### Scenario: set_last_analysis 合并多关键词结果 +- **WHEN** 调用 `set_last_analysis(new_data)` 且 `_last_analysis` 已有数据 +- **THEN** SHALL 将 `new_data` 的 `hot_topics` 和 `suggestions` 追加到已有列表并去重,而非完全覆盖 diff --git a/openspec/specs/hotspot-auto-collector/spec.md b/openspec/specs/hotspot-auto-collector/spec.md new file mode 100644 index 0000000..00ab683 --- /dev/null +++ b/openspec/specs/hotspot-auto-collector/spec.md @@ -0,0 +1,31 @@ +## ADDED Requirements + +### Requirement: 定时热点自动采集任务 +系统 SHALL 在 `services/scheduler.py` 中提供 `start_hotspot_collector` / `stop_hotspot_collector` 函数,启动独立的后台线程按固定间隔自动采集热点。 + +#### Scenario: 启动自动采集 +- **WHEN** 调用 `start_hotspot_collector(keywords, interval_hours, mcp_url, model)` +- **THEN** 系统 SHALL 启动一个 daemon 线程,在首次启动后立即执行一轮采集,随后按 `interval_hours` 间隔循环执行 + +#### Scenario: 单轮采集流程 +- **WHEN** 采集线程执行一轮任务 +- **THEN** SHALL 遍历 `keywords` 列表,对每个关键词依次调用 `search_hotspots(keyword, "最多点赞", mcp_url)` 获取搜索结果,再调用 `analyze_and_suggest(model, keyword, search_result)` 执行 LLM 分析,分析结果通过 `set_last_analysis()` 合并写入状态缓存 + +#### Scenario: 停止自动采集 +- **WHEN** 调用 `stop_hotspot_collector()` +- **THEN** 系统 SHALL 清除运行标志,等待线程优雅退出 + +#### Scenario: 防止重复启动 +- **WHEN** 自动采集已在运行中再次调用 `start_hotspot_collector` +- **THEN** SHALL 返回警告信息,不启动新线程 + +### Requirement: 热点自动采集配置 +系统 SHALL 支持通过 `config.json` 的 `hotspot_auto_collect` 节点配置自动采集参数。 + +#### Scenario: 配置节点结构 +- **WHEN** 读取 `config.json` 中的 `hotspot_auto_collect` +- **THEN** 该节点 SHALL 包含以下字段:`enabled`(bool,默认 false)、`keywords`(string list,默认 `["穿搭", "美妆", "好物"]`)、`interval_hours`(int,默认 4) + +#### Scenario: 配置缺失时使用默认值 +- **WHEN** `config.json` 中不存在 `hotspot_auto_collect` 节点 +- **THEN** `ConfigManager.get("hotspot_auto_collect")` SHALL 返回默认值 `{"enabled": false, "keywords": ["穿搭", "美妆", "好物"], "interval_hours": 4}` diff --git a/openspec/specs/hotspot-engine-bridge/spec.md b/openspec/specs/hotspot-engine-bridge/spec.md new file mode 100644 index 0000000..e37255b --- /dev/null +++ b/openspec/specs/hotspot-engine-bridge/spec.md @@ -0,0 +1,16 @@ +## ADDED Requirements + +### Requirement: 热点数据注入 TopicEngine +系统 SHALL 提供 `feed_hotspot_to_engine(topic_engine: TopicEngine) -> list[dict]` 函数,将缓存的热点分析结果传入 `TopicEngine.recommend_topics()`。 + +#### Scenario: 有缓存分析结果时注入并返回推荐 +- **WHEN** 调用 `feed_hotspot_to_engine(topic_engine)` 且 `get_last_analysis()` 返回非空 dict +- **THEN** SHALL 调用 `topic_engine.recommend_topics(hotspot_data=data)` 并返回推荐结果列表 + +#### Scenario: 无缓存分析结果时返回空推荐 +- **WHEN** 调用 `feed_hotspot_to_engine(topic_engine)` 且 `get_last_analysis()` 返回 `None` +- **THEN** SHALL 调用 `topic_engine.recommend_topics(hotspot_data=None)` 并返回其结果(仅基于权重数据推荐) + +#### Scenario: 函数位于 hotspot 模块避免循环依赖 +- **WHEN** `feed_hotspot_to_engine` 被定义 +- **THEN** SHALL 位于 `services/hotspot.py` 中,接受 `TopicEngine` 实例作为参数,不在 `topic_engine.py` 中反向引用 hotspot 模块 diff --git a/openspec/specs/hotspot-topic-selector/spec.md b/openspec/specs/hotspot-topic-selector/spec.md new file mode 100644 index 0000000..85dea7c --- /dev/null +++ b/openspec/specs/hotspot-topic-selector/spec.md @@ -0,0 +1,16 @@ +## ADDED Requirements + +### Requirement: 热点选题下拉组件 +系统 SHALL 在热点探测 Tab 中新增一个 `gr.Dropdown` 组件,用于展示 LLM 分析出的推荐选题列表。 + +#### Scenario: 分析完成后动态填充下拉选项 +- **WHEN** `analyze_and_suggest` 执行完成并返回分析结果 +- **THEN** 下拉组件 SHALL 通过 `gr.update(choices=...)` 更新为分析结果中 `suggestions` 列表的 `topic` 字段值 + +#### Scenario: 用户选择下拉项后写入选题输入框 +- **WHEN** 用户在下拉组件中选择一条推荐选题 +- **THEN** 系统 SHALL 将选中的 `topic` 文本自动填入 `topic_from_hot` Textbox + +#### Scenario: 无分析结果时下拉为空 +- **WHEN** 尚未执行热点分析或分析结果中无 `suggestions` +- **THEN** 下拉组件 SHALL 显示空选项列表,不影响用户手动输入选题 diff --git a/openspec/specs/services-hotspot/spec.md b/openspec/specs/services-hotspot/spec.md index 9707691..1e45a48 100644 --- a/openspec/specs/services-hotspot/spec.md +++ b/openspec/specs/services-hotspot/spec.md @@ -1,12 +1,23 @@ -## ADDED Requirements +## MODIFIED Requirements ### Requirement: 热点探测函数迁移至独立模块 系统 SHALL 将热点搜索与分析相关函数从 `main.py` 提取至 `services/hotspot.py`,包括:`search_hotspots`、`analyze_and_suggest`、`generate_from_hotspot`、`_set_cache`、`_get_cache`、`_fetch_and_cache`、`_pick_from_cache`、`fetch_proactive_notes`、`on_proactive_note_selected`。 +新增对外接口:`get_last_analysis`、`set_last_analysis`、`feed_hotspot_to_engine`。 + #### Scenario: 模块导入成功 - **WHEN** `main.py` 执行 `from services.hotspot import search_hotspots, analyze_and_suggest` 等导入 - **THEN** 所有函数可正常调用 #### Scenario: 线程安全缓存随模块迁移 - **WHEN** `_cache_lock`(`threading.RLock`)随函数一起迁移至 `services/hotspot.py` -- **THEN** `_set_cache` / `_get_cache` 的线程安全行为保持不变 +- **THEN** `_set_cache` / `_get_cache` / `get_last_analysis` / `set_last_analysis` 的线程安全行为保持不变 + +#### Scenario: analyze_and_suggest 写入分析状态 +- **WHEN** `analyze_and_suggest` 成功获得 LLM 分析结果 +- **THEN** SHALL 在渲染 Markdown 之前调用 `set_last_analysis(analysis)` 缓存结构化数据 +- **AND** 返回值格式不变(status, summary, keyword) + +#### Scenario: generate_from_hotspot 支持增强上下文 +- **WHEN** 调用 `generate_from_hotspot` 生成文案 +- **THEN** 函数 SHALL 自动从 `get_last_analysis()` 获取结构化摘要,与 `search_result` 拼接后传入 `svc.generate_copy_with_reference()`,总参考文本限制在 3000 字符以内 diff --git a/openspec/specs/services-queue/spec.md b/openspec/specs/services-queue/spec.md index 54e3376..d55e69f 100644 --- a/openspec/specs/services-queue/spec.md +++ b/openspec/specs/services-queue/spec.md @@ -1,8 +1,12 @@ -## ADDED Requirements +## MODIFIED Requirements ### Requirement: 排期队列操作函数迁移至独立模块 系统 SHALL 将内容排期队列相关函数从 `main.py` 提取至 `services/queue_ops.py`,包括:`generate_to_queue`、`_queue_publish_callback`、`queue_refresh_table`、`queue_refresh_calendar`、`queue_preview_item`、`queue_approve_item`、`queue_reject_item`、`queue_delete_item`、`queue_retry_item`、`queue_publish_now`、`queue_start_processor`、`queue_stop_processor`、`queue_get_status`、`queue_batch_approve`、`queue_generate_and_refresh`。 +`generate_to_queue` SHALL 新增 `auto_schedule: bool = False` 和 `auto_approve: bool = False` 参数: +- 当 `auto_schedule=True` 时,SHALL 为每篇生成的内容调用 `PublishQueue.auto_schedule_item()` 自动分配排期时间 +- 当 `auto_approve=True` 时,SHALL 在入队后自动将状态从 `draft` 变为 `approved`(或 `scheduled`,如果有排期时间) + #### Scenario: 模块导入成功 - **WHEN** `main.py` 执行 `from services.queue_ops import queue_generate_and_refresh, queue_refresh_table` 等导入 - **THEN** 所有函数可正常调用 @@ -14,3 +18,15 @@ #### Scenario: 队列操作读写 pub_queue 单例 - **WHEN** `queue_ops.py` 中的函数需要访问 `pub_queue` 或 `queue_publisher` - **THEN** 这些单例 SHALL 通过函数参数传入,不在 `queue_ops.py` 模块顶层初始化 + +#### Scenario: 自动排期生成 +- **WHEN** 调用 `generate_to_queue(auto_schedule=True)` 生成 3 篇内容 +- **THEN** 每篇内容入队后 SHALL 调用 `auto_schedule_item()` 分配排期时间,3 篇内容 SHALL 分配到不同时段 + +#### Scenario: 自动审核生成 +- **WHEN** 调用 `generate_to_queue(auto_approve=True)` +- **THEN** 入队项 SHALL 在添加后立即被审核通过,状态变为 `approved` 或 `scheduled` + +#### Scenario: queue_generate_and_refresh 传递新参数 +- **WHEN** UI 层调用 `queue_generate_and_refresh` 且用户勾选了自动排期 +- **THEN** `auto_schedule=True` SHALL 被传递到 `generate_to_queue` diff --git a/openspec/specs/services-scheduler/spec.md b/openspec/specs/services-scheduler/spec.md index 96a821f..54abec1 100644 --- a/openspec/specs/services-scheduler/spec.md +++ b/openspec/specs/services-scheduler/spec.md @@ -1,8 +1,10 @@ -## ADDED Requirements +## MODIFIED Requirements ### Requirement: 自动调度器函数迁移至独立模块 系统 SHALL 将调度器相关的状态变量和函数从 `main.py` 提取至 `services/scheduler.py`,包括:`_scheduler_next_times`、`_auto_log`(列表)、`_auto_log_append`、`_scheduler_loop`、`start_scheduler`、`stop_scheduler`、`get_auto_log`、`get_scheduler_status`、`_learn_running`、`_learn_scheduler_loop`、`start_learn_scheduler`、`stop_learn_scheduler`。 +`_scheduler_loop` 中的自动发布分支 SHALL 改为调用 `generate_to_queue(auto_schedule=True, auto_approve=True)` 生成内容入队,不再调用 `auto_publish_once` 中的 MCP client 直接发布逻辑。 + #### Scenario: 调度器启停正常工作 - **WHEN** `start_scheduler(...)` 被调用并传入合法参数 - **THEN** 调度器线程 SHALL 正常启动,`get_scheduler_status()` 返回运行中状态 @@ -14,3 +16,7 @@ #### Scenario: engagement 通过回调写日志 - **WHEN** `services/engagement.py` 中的函数需要写日志时 - **THEN** SHALL 通过 `log_fn` 参数(由 `scheduler.py` 传入 `_auto_log_append`)写入,不直接导入 `scheduler.py` + +#### Scenario: 自动发布走队列路径 +- **WHEN** `_scheduler_loop` 中 `publish_enabled=True` 且到达发布时间 +- **THEN** SHALL 调用 `generate_to_queue(auto_schedule=True, auto_approve=True)` 替代直接发布,日志记录入队结果 diff --git a/openspec/specs/smart-schedule-engine/spec.md b/openspec/specs/smart-schedule-engine/spec.md new file mode 100644 index 0000000..0d57239 --- /dev/null +++ b/openspec/specs/smart-schedule-engine/spec.md @@ -0,0 +1,45 @@ +## ADDED Requirements + +### Requirement: 最优时段计算 +系统 SHALL 基于 `AnalyticsService` 的 `time_weights` 数据计算每个 3 小时段的权重得分,并按得分降序排列为候选时段列表。 + +#### Scenario: 有分析数据时按权重排序 +- **WHEN** `time_weights` 包含至少 1 个时段的权重数据 +- **THEN** `suggest_schedule_time()` SHALL 按 `weight` 值降序排列时段,优先返回高权重时段的具体时间 + +#### Scenario: 无分析数据时使用默认时段 +- **WHEN** `time_weights` 为空字典或不存在 +- **THEN** 系统 SHALL 使用默认的高流量时段作为候选:08-11 时(权重 70)、12-14 时(权重 60)、18-21 时(权重 85)、21-24 时(权重 75) + +### Requirement: 时段冲突检测 +系统 SHALL 在分配排期时间前查询已有队列排期,避免同一时段内容拥堵。 + +#### Scenario: 单时段内容上限控制 +- **WHEN** 某个 3 小时时段中已排期的队列项数量达到 `max_per_slot`(默认 2) +- **THEN** 系统 SHALL 跳过该时段,选择下一个权重最高且有空余的时段 + +#### Scenario: 单日内容上限控制 +- **WHEN** 某天的已排期总数达到 `max_per_day`(默认 5) +- **THEN** 系统 SHALL 将内容排期到次日的最优可用时段 + +#### Scenario: 最远排期范围 +- **WHEN** 未来 7 天内所有时段均已满 +- **THEN** `suggest_schedule_time()` SHALL 返回 `None`,内容以 approved 状态入队(不带排期时间) + +### Requirement: 排期时间精确化 +系统 SHALL 在选定的 3 小时段内随机选择一个精确的分钟级时间点,避免所有内容在整点发布。 + +#### Scenario: 时段内随机时间 +- **WHEN** 系统选定 18-21 时段为最优 +- **THEN** SHALL 在该时段范围内随机生成精确时间(如 `2026-02-28 19:37:00`),格式为 `%Y-%m-%d %H:%M:%S` + +### Requirement: 队列项自动排期 +`PublishQueue` SHALL 提供 `auto_schedule_item(item_id, analytics)` 方法,为指定队列项调用排期引擎并更新其 `scheduled_time`。 + +#### Scenario: 自动排期成功 +- **WHEN** 调用 `auto_schedule_item(item_id, analytics)` 且队列项状态为 draft 或 approved +- **THEN** 系统 SHALL 计算最优时间并更新该项的 `scheduled_time` 和状态为 `scheduled` + +#### Scenario: 自动排期无可用时段 +- **WHEN** 调用 `auto_schedule_item()` 但未来 7 天无可用时段 +- **THEN** 系统 SHALL 保持队列项当前状态不变,返回 `False` diff --git a/openspec/specs/unified-publish-path/spec.md b/openspec/specs/unified-publish-path/spec.md new file mode 100644 index 0000000..ce99fb1 --- /dev/null +++ b/openspec/specs/unified-publish-path/spec.md @@ -0,0 +1,23 @@ +## ADDED Requirements + +### Requirement: 调度器发布通过队列执行 +`_scheduler_loop` 中的自动发布分支 SHALL 调用 `generate_to_queue(auto_schedule=True, auto_approve=True)` 替代 `auto_publish_once` 中的直接发布逻辑。 + +#### Scenario: 调度器触发自动发布 +- **WHEN** `_scheduler_loop` 的 publish 定时触发且 `publish_enabled=True` +- **THEN** 系统 SHALL 调用 `generate_to_queue` 生成内容入队(带 `auto_schedule=True, auto_approve=True`),不再直接调用 MCP client 发布 + +#### Scenario: 发布由 QueuePublisher 完成 +- **WHEN** 调度器生成的内容入队后 +- **THEN** `QueuePublisher._loop()` SHALL 在下一次检查循环中检测到该排期/待发布项并执行实际发布 + +### Requirement: auto_publish_once 重构为入队操作 +`auto_publish_once` SHALL 重构为仅生成内容并加入队列,不再包含直接调用 MCP client publish 的逻辑。 + +#### Scenario: auto_publish_once 返回入队结果 +- **WHEN** 调用 `auto_publish_once` +- **THEN** 函数 SHALL 生成文案和图片、调用 `generate_to_queue` 入队,返回队列项 ID 和排期时间信息 + +#### Scenario: QueuePublisher 未运行时的提示 +- **WHEN** `auto_publish_once` 成功入队但 `QueuePublisher` 未启动 +- **THEN** 返回信息中 SHALL 包含提示「内容已入队,请启动队列处理器以自动发布」 diff --git a/services/analytics_service.py b/services/analytics_service.py index 8922fdd..04332da 100644 --- a/services/analytics_service.py +++ b/services/analytics_service.py @@ -533,6 +533,26 @@ class AnalyticsService: advice_parts.append(f" • {p_name}: 权重 {p_info['weight']}分 (出现{p_info['count']}次)") return "\n".join(advice_parts) + # ========== 时段权重查询 ========== + + _DEFAULT_TIME_WEIGHTS = { + "08-11时": {"weight": 70, "count": 0}, + "12-14时": {"weight": 60, "count": 0}, + "18-21时": {"weight": 85, "count": 0}, + "21-24时": {"weight": 75, "count": 0}, + } + + def get_time_weights(self) -> dict: + """返回各时段权重字典。 + + 有分析数据时返回 time_weights;无数据时返回默认高流量时段。 + 返回格式: {"18-21时": {"weight": 85, "count": 12}, ...} + """ + tw = self._weights.get("time_weights", {}) + if tw: + return tw + return dict(self._DEFAULT_TIME_WEIGHTS) + # ========== LLM 深度分析 ========== def generate_llm_analysis_prompt(self) -> str: diff --git a/services/config_manager.py b/services/config_manager.py index 4fbd39f..393fc37 100644 --- a/services/config_manager.py +++ b/services/config_manager.py @@ -63,6 +63,12 @@ DEFAULT_CONFIG = { "learn_interval": 6, # 内容排期参数 "queue_gen_count": 3, + # 热点自动采集参数 + "hotspot_auto_collect": { + "enabled": False, + "keywords": ["穿搭", "美妆", "好物"], + "interval_hours": 4, + }, } diff --git a/services/hotspot.py b/services/hotspot.py index 748607f..de04094 100644 --- a/services/hotspot.py +++ b/services/hotspot.py @@ -2,6 +2,7 @@ services/hotspot.py 热点探测、热点生成、笔记列表缓存(供评论管家主动评论使用) """ +import copy import threading import logging @@ -14,10 +15,61 @@ from .persona import _resolve_persona logger = logging.getLogger("autobot") +# ---- 共用: 线程安全缓存 ---- +# 缓存互斥锁,防止并发回调产生竞态(所有缓存共用) +_cache_lock = threading.RLock() +# 主动评论缓存 +_cached_proactive_entries: list[dict] = [] +# 我的笔记评论缓存 +_cached_my_note_entries: list[dict] = [] + # ================================================== # Tab 2: 热点探测 # ================================================== +# 最近一次 LLM 热点分析的结构化结果(线程安全,复用 _cache_lock) +_last_analysis: dict | None = None + + +def get_last_analysis() -> dict | None: + """线程安全地获取最近一次热点分析结果的深拷贝""" + with _cache_lock: + if _last_analysis is None: + return None + return copy.deepcopy(_last_analysis) + + +def set_last_analysis(data: dict) -> None: + """线程安全地更新热点分析结果(合并 hot_topics / suggestions 并去重)""" + global _last_analysis + with _cache_lock: + if _last_analysis is None: + _last_analysis = copy.deepcopy(data) + else: + # 合并 hot_topics + existing_topics = _last_analysis.get("hot_topics", []) + new_topics = data.get("hot_topics", []) + seen = set(existing_topics) + for t in new_topics: + if t not in seen: + existing_topics.append(t) + seen.add(t) + _last_analysis["hot_topics"] = existing_topics + + # 合并 suggestions(按 topic 去重) + existing_sug = _last_analysis.get("suggestions", []) + existing_sug_topics = {s.get("topic", "") for s in existing_sug} + for s in data.get("suggestions", []): + if s.get("topic", "") not in existing_sug_topics: + existing_sug.append(s) + existing_sug_topics.add(s.get("topic", "")) + _last_analysis["suggestions"] = existing_sug + + # 其他字段以最新为准 + for key in data: + if key not in ("hot_topics", "suggestions"): + _last_analysis[key] = data[key] + def search_hotspots(keyword, sort_by, mcp_url): """搜索小红书热门内容""" @@ -36,21 +88,25 @@ def search_hotspots(keyword, sort_by, mcp_url): def analyze_and_suggest(model, keyword, search_result): - """AI 分析热点并给出建议""" + """AI 分析热点并给出建议,同时缓存结构化结果""" if not search_result: - return "❌ 请先搜索", "", "" + return "❌ 请先搜索", "", "", gr.update(choices=[], value=None) api_key, base_url, _ = _get_llm_config() if not api_key: - return "❌ 请先配置 LLM 提供商", "", "" + return "❌ 请先配置 LLM 提供商", "", "", gr.update(choices=[], value=None) try: svc = LLMService(api_key, base_url, model) analysis = svc.analyze_hotspots(search_result) + # 缓存结构化分析结果(在渲染 Markdown 之前) + set_last_analysis(analysis) + topics = "\n".join(f"• {t}" for t in analysis.get("hot_topics", [])) patterns = "\n".join(f"• {p}" for p in analysis.get("title_patterns", [])) + suggestions_list = analysis.get("suggestions", []) suggestions = "\n".join( f"**{s['topic']}** - {s['reason']}" - for s in analysis.get("suggestions", []) + for s in suggestions_list ) structure = analysis.get("content_structure", "") @@ -60,14 +116,22 @@ def analyze_and_suggest(model, keyword, search_result): f"## 📐 内容结构\n{structure}\n\n" f"## 💡 推荐选题\n{suggestions}" ) - return "✅ 分析完成", summary, keyword + + # 构建选题下拉选项 + topic_choices = [s["topic"] for s in suggestions_list if s.get("topic")] + dropdown_update = gr.update( + choices=topic_choices, + value=topic_choices[0] if topic_choices else None, + ) + + return "✅ 分析完成", summary, keyword, dropdown_update except Exception as e: logger.error("热点分析失败: %s", e) - return f"❌ 分析失败: {e}", "", "" + return f"❌ 分析失败: {e}", "", "", gr.update(choices=[], value=None) def generate_from_hotspot(model, topic_from_hotspot, style, search_result, sd_model_name, persona_text): - """基于热点分析生成文案(自动适配 SD 模型,支持人设)""" + """基于热点分析生成文案(自动适配 SD 模型,支持人设,增强分析上下文)""" if not topic_from_hotspot: return "", "", "", "", "❌ 请先选择或输入选题" api_key, base_url, _ = _get_llm_config() @@ -76,10 +140,30 @@ def generate_from_hotspot(model, topic_from_hotspot, style, search_result, sd_mo try: svc = LLMService(api_key, base_url, model) persona = _resolve_persona(persona_text) if persona_text else None + + # 构建增强参考上下文:结构化分析摘要 + 原始搜索片段 + analysis = get_last_analysis() + reference_parts = [] + if analysis: + topics_str = ", ".join(analysis.get("hot_topics", [])[:5]) + sug_str = "; ".join( + s.get("topic", "") for s in analysis.get("suggestions", [])[:5] + ) + structure = analysis.get("content_structure", "") + analysis_summary = ( + f"[热点分析摘要] 热门选题: {topics_str}\n" + f"推荐方向: {sug_str}\n" + f"内容结构建议: {structure}\n\n" + ) + reference_parts.append(analysis_summary) + if search_result: + reference_parts.append(search_result) + combined_reference = "".join(reference_parts)[:3000] + data = svc.generate_copy_with_reference( topic=topic_from_hotspot, style=style, - reference_notes=search_result[:2000], + reference_notes=combined_reference, sd_model_name=sd_model_name, persona=persona, ) @@ -95,19 +179,18 @@ def generate_from_hotspot(model, topic_from_hotspot, style, search_result, sd_mo return "", "", "", "", f"❌ 生成失败: {e}" +def feed_hotspot_to_engine(topic_engine) -> list[dict]: + """将缓存的热点分析结果注入 TopicEngine,返回热点加权推荐列表""" + data = get_last_analysis() + return topic_engine.recommend_topics(hotspot_data=data) + + # ================================================== # Tab 3: 评论管家 # ================================================== # ---- 共用: 笔记列表缓存(线程安全)---- -# 主动评论缓存 -_cached_proactive_entries: list[dict] = [] -# 我的笔记评论缓存 -_cached_my_note_entries: list[dict] = [] -# 缓存互斥锁,防止并发回调产生竞态 -_cache_lock = threading.RLock() - def _set_cache(name: str, entries: list): """线程安全地更新笔记列表缓存""" diff --git a/services/llm_service.py b/services/llm_service.py index ebf33d2..027eac0 100644 --- a/services/llm_service.py +++ b/services/llm_service.py @@ -717,6 +717,11 @@ class LLMService: except json.JSONDecodeError: pass + # 策略6: 修复截断的 JSON(LLM 输出被 token 限制截断) + truncated = self._try_fix_truncated_json(cleaned) + if truncated is not None: + return truncated + # 全部失败,打日志并抛出有用的错误信息 preview = raw[:500] if len(raw) > 500 else raw logger.error("JSON 解析全部失败,LLM 原始返回: %s", preview) @@ -726,6 +731,71 @@ class LLMService: f"💡 可能原因: 模型不支持 JSON 输出格式,建议更换模型重试" ) + @staticmethod + def _try_fix_truncated_json(text: str) -> dict | None: + """ + 尝试修复被 token 限制截断的 JSON。 + + 常见场景:LLM 输出的 content 字段非常长,JSON 在字符串中间被切断, + 导致缺少闭合引号和大括号。 + + 策略:从 '{' 开始,逐步尝试在不同位置截断并补全 JSON。 + """ + # 找到 JSON 起始 + start = text.find('{') + if start < 0: + return None + fragment = text[start:] + + # 快速检查:如果已完整则无需修复 + try: + return json.loads(fragment) + except json.JSONDecodeError: + pass + + # 从末尾向前找到最后一个完整的 key-value 对的结束位置 + # 策略A: 尝试直接补全闭合字符 + for suffix in [ + '"}', # 被截断的字符串值 + 闭合对象 + '"]}', # 被截断的数组中字符串 + 闭合数组 + 闭合对象 + '"}', + '" }', + '..."}', # 在截断处加省略号 + '..."\n}', + ]: + try: + result = json.loads(fragment + suffix) + logger.info("截断 JSON 修复成功 (补全: %s)", repr(suffix)) + return result + except json.JSONDecodeError: + continue + + # 策略B: 回退到最后一个完整字段 + # 找到所有 "key": "value" 或 "key": [...] 的匹配位置 + # 从后往前尝试在每个逗号处截断 + for i in range(len(fragment) - 1, max(0, len(fragment) - 2000), -1): + if fragment[i] in (',', '\n'): + candidate = fragment[:i].rstrip().rstrip(',') + # 计算需要补全的括号 + open_braces = candidate.count('{') - candidate.count('}') + open_brackets = candidate.count('[') - candidate.count(']') + # 检查是否在字符串内部(简单启发式:奇数个未转义引号) + in_string = (candidate.count('"') - candidate.count('\\"')) % 2 == 1 + closing = '' + if in_string: + closing += '"' + closing += ']' * max(0, open_brackets) + closing += '}' * max(0, open_braces) + if closing: + try: + result = json.loads(candidate + closing) + logger.info("截断 JSON 修复成功 (回退到位置 %d, 补全: %s)", i, repr(closing)) + return result + except json.JSONDecodeError: + continue + + return None + # ---------- 业务方法 ---------- def get_models(self) -> list[str]: diff --git a/services/publish_queue.py b/services/publish_queue.py index d10cf39..4bf7c29 100644 --- a/services/publish_queue.py +++ b/services/publish_queue.py @@ -489,6 +489,151 @@ class PublishQueue: return "\n".join(lines) + # ---------- 智能排期引擎 ---------- + + def get_slot_usage(self, days: int = 7) -> dict: + """查询未来 N 天各日期各时段已排期的数量。 + + 返回: {"2026-02-28": {"18-21时": 1, "08-11时": 2}, ...} + """ + conn = self._get_conn() + try: + now = datetime.now() + cutoff = (now + timedelta(days=days)).strftime("%Y-%m-%d %H:%M:%S") + rows = conn.execute( + "SELECT scheduled_time FROM queue " + "WHERE status IN (?, ?) AND scheduled_time IS NOT NULL AND scheduled_time >= ? AND scheduled_time <= ?", + (STATUS_SCHEDULED, STATUS_APPROVED, now.strftime("%Y-%m-%d %H:%M:%S"), cutoff), + ).fetchall() + + usage: dict[str, dict[str, int]] = {} + for row in rows: + st = row["scheduled_time"] + if not st: + continue + try: + dt = datetime.strptime(st[:19], "%Y-%m-%d %H:%M:%S") + except (ValueError, TypeError): + continue + date_key = dt.strftime("%Y-%m-%d") + hour = dt.hour + # 映射到3小时段 + slot = self._hour_to_slot(hour) + usage.setdefault(date_key, {}) + usage[date_key][slot] = usage[date_key].get(slot, 0) + 1 + return usage + finally: + conn.close() + + @staticmethod + def _hour_to_slot(hour: int) -> str: + """将小时映射到时段标签。""" + brackets = [ + (0, 3, "00-03时"), (3, 6, "03-06时"), (6, 8, "06-08时"), + (8, 11, "08-11时"), (11, 12, "11-12时"), (12, 14, "12-14时"), + (14, 18, "14-18时"), (18, 21, "18-21时"), (21, 24, "21-24时"), + ] + for lo, hi, label in brackets: + if lo <= hour < hi: + return label + return "21-24时" + + @staticmethod + def _slot_to_hour_range(slot: str) -> tuple[int, int]: + """从时段标签提取起止小时 (start, end)。""" + import re as _re + m = _re.match(r"(\d{2})-(\d{2})时", slot) + if m: + return int(m.group(1)), int(m.group(2)) + return 18, 21 # fallback + + def suggest_schedule_time(self, analytics, max_per_slot: int = 2, + max_per_day: int = 5) -> str | None: + """基于时段权重和已有排期,计算最优发布时间。 + + 返回格式: '%Y-%m-%d %H:%M:%S',所有时段满时返回 None。 + """ + import random as _random + + time_weights = analytics.get_time_weights() + if not time_weights: + return None + + # 按权重降序排列候选时段 + sorted_slots = sorted(time_weights.items(), + key=lambda x: x[1] if isinstance(x[1], (int, float)) else x[1].get("weight", 0), + reverse=True) + + usage = self.get_slot_usage(days=7) + now = datetime.now() + + for day_offset in range(8): # 今天 + 未来7天 + target_date = now + timedelta(days=day_offset) + date_key = target_date.strftime("%Y-%m-%d") + + # 检查当天总量 + day_usage = usage.get(date_key, {}) + day_total = sum(day_usage.values()) + if day_total >= max_per_day: + continue + + for slot_name, slot_info in sorted_slots: + slot_count = day_usage.get(slot_name, 0) + if slot_count >= max_per_slot: + continue + + start_hour, end_hour = self._slot_to_hour_range(slot_name) + + # 如果是今天,跳过已过去的时段 + if day_offset == 0 and end_hour <= now.hour: + continue + # 如果是今天且时段正在进行中,起始小时调整为当前 +1 + effective_start = start_hour + if day_offset == 0 and start_hour <= now.hour < end_hour: + effective_start = now.hour + 1 + if effective_start >= end_hour: + continue + + # 在时段内随机选一个时间 + rand_hour = _random.randint(effective_start, end_hour - 1) + rand_minute = _random.randint(0, 59) + scheduled = target_date.replace(hour=rand_hour, minute=rand_minute, + second=0, microsecond=0) + return scheduled.strftime("%Y-%m-%d %H:%M:%S") + + return None + + def auto_schedule_item(self, item_id: int, analytics, + max_per_slot: int = 2, max_per_day: int = 5) -> bool: + """为指定队列项自动分配排期时间。 + + 成功返回 True(状态变为 scheduled),无可用时段返回 False。 + """ + item = self.get(item_id) + if not item or item["status"] not in (STATUS_DRAFT, STATUS_APPROVED): + return False + + scheduled_time = self.suggest_schedule_time( + analytics, max_per_slot=max_per_slot, max_per_day=max_per_day, + ) + if not scheduled_time: + logger.warning("auto_schedule_item #%d: 未来7天无可用时段", item_id) + return False + + # 更新排期时间 + 状态 + conn = self._get_conn() + try: + now_str = datetime.now().strftime("%Y-%m-%d %H:%M:%S") + conn.execute( + "UPDATE queue SET status = ?, scheduled_time = ?, updated_at = ? WHERE id = ?", + (STATUS_SCHEDULED, scheduled_time, now_str, item_id), + ) + conn.commit() + logger.info("auto_schedule_item #%d → %s", item_id, scheduled_time) + return True + finally: + conn.close() + class QueuePublisher: """后台队列发布处理器""" diff --git a/services/queue_ops.py b/services/queue_ops.py index 660a784..fb61113 100644 --- a/services/queue_ops.py +++ b/services/queue_ops.py @@ -3,15 +3,21 @@ services/queue_ops.py 发布队列操作:生成入队、状态管理、发布控制 """ import os +import re import time +import random import logging +from PIL import Image + from .config_manager import ConfigManager, OUTPUT_DIR from .publish_queue import ( PublishQueue, QueuePublisher, STATUS_DRAFT, STATUS_APPROVED, STATUS_SCHEDULED, STATUS_PUBLISHING, STATUS_PUBLISHED, STATUS_FAILED, STATUS_REJECTED, STATUS_LABELS, ) +from .llm_service import LLMService +from .sd_service import SDService from .mcp_client import get_mcp_client from .connection import _get_llm_config from .persona import DEFAULT_TOPICS, DEFAULT_STYLES, _resolve_persona @@ -52,8 +58,13 @@ def _log(msg: str): def generate_to_queue(topics_str, sd_url_val, sd_model_name, model, persona_text=None, quality_mode_val=None, face_swap_on=False, count=1, - scheduled_time=None): - """批量生成内容 → 加入发布队列(不直接发布)""" + scheduled_time=None, auto_schedule=False, auto_approve=False): + """批量生成内容 → 加入发布队列(不直接发布) + + Args: + auto_schedule: 为每篇内容自动分配最优排期时间 + auto_approve: 入队后自动审核通过 + """ try: topics = [t.strip() for t in topics_str.split(",") if t.strip()] if topics_str else DEFAULT_TOPICS use_weights = cfg.get("use_smart_weights", True) and _analytics.has_weights @@ -82,10 +93,10 @@ def generate_to_queue(topics_str, sd_url_val, sd_model_name, model, persona_text persona = _resolve_persona(persona_text) if persona_text else None if use_weights: - weight_insights = f"高权重主题: {', '.join(list(analytics._weights.get('topic_weights', {}).keys())[:5])}\n" - weight_insights += f"权重摘要: {analytics.weights_summary}" + weight_insights = f"高权重主题: {', '.join(list(_analytics._weights.get('topic_weights', {}).keys())[:5])}\n" + weight_insights += f"权重摘要: {_analytics.weights_summary}" title_advice = _analytics.get_title_advice() - hot_tags = ", ".join(analytics.get_top_tags(8)) + hot_tags = ", ".join(_analytics.get_top_tags(8)) try: data = svc.generate_weighted_copy(topic, style, weight_insights, title_advice, hot_tags, sd_model_name=sd_model_name, persona=persona) except Exception: @@ -150,7 +161,21 @@ def generate_to_queue(topics_str, sd_url_val, sd_model_name, model, persona_text topic=topic, style=style, persona=persona or "", status=STATUS_DRAFT, scheduled_time=scheduled_time, ) - results.append(f"#{item_id} {title}") + # 自动排期 + sched_msg = "" + if auto_schedule and _analytics: + ok = _pub_queue.auto_schedule_item(item_id, _analytics) + if ok: + item = _pub_queue.get(item_id) + sched_msg = f" ⏰{item['scheduled_time'][:16]}" if item else "" + _log(f"🕐 #{item_id} 自动排期{sched_msg}") + + # 自动审核 + if auto_approve: + _pub_queue.approve(item_id) + _log(f"✅ #{item_id} 自动审核通过") + + results.append(f"#{item_id} {title}{sched_msg}") _log(f"📋 已加入队列 #{item_id}: {title}") # 多篇间隔 @@ -335,13 +360,14 @@ def queue_batch_approve(status_filter): def queue_generate_and_refresh(topics_str, sd_url_val, sd_model_name, model, persona_text, quality_mode_val, face_swap_on, - gen_count, gen_schedule_time): + gen_count, gen_schedule_time, auto_schedule=False): """生成内容到队列 + 刷新表格""" msg = generate_to_queue( topics_str, sd_url_val, sd_model_name, model, persona_text=persona_text, quality_mode_val=quality_mode_val, face_swap_on=face_swap_on, count=gen_count, scheduled_time=gen_schedule_time.strip() if gen_schedule_time else None, + auto_schedule=auto_schedule, ) table = _pub_queue.format_queue_table() calendar = _pub_queue.format_calendar(14) diff --git a/services/scheduler.py b/services/scheduler.py index 435ce07..7b76b44 100644 --- a/services/scheduler.py +++ b/services/scheduler.py @@ -514,143 +514,38 @@ def auto_reply_once(max_replies, mcp_url, model, persona_text): def auto_publish_once(topics_str, mcp_url, sd_url_val, sd_model_name, model, persona_text=None, quality_mode_val=None, face_swap_on=False): - """一键发布:自动生成文案 → 生成图片 → 本地备份 → 发布到小红书(含限额 + 智能权重 + 人设 + 画质)""" + """一键发布:生成内容 → 加入发布队列(自动排期 + 自动审核)。 + + 实际发布由 QueuePublisher 后台处理器完成。 + """ try: if _is_in_cooldown(): return "⏳ 错误冷却中,请稍后再试" if not _check_daily_limit("publishes"): return f"🚫 今日发布已达上限 ({DAILY_LIMITS['publishes']})" - topics = [t.strip() for t in topics_str.split(",") if t.strip()] if topics_str else DEFAULT_TOPICS - use_weights = cfg.get("use_smart_weights", True) and _analytics.has_weights + # 延迟导入避免循环依赖 + from .queue_ops import generate_to_queue - if use_weights: - # 智能加权选题 - topic = _analytics.get_weighted_topic(topics) - style = _analytics.get_weighted_style(DEFAULT_STYLES) - _auto_log_append(f"🧠 [智能] 主题: {topic} | 风格: {style} (加权选择)") - else: - topic = random.choice(topics) - style = random.choice(DEFAULT_STYLES) - _auto_log_append(f"📝 主题: {topic} | 风格: {style} (主题池: {len(topics)} 个)") - - # 生成文案 - api_key, base_url, _ = _get_llm_config() - if not api_key: - return "❌ LLM 未配置,请先在全局设置中配置提供商" - - svc = LLMService(api_key, base_url, model) - # 解析人设(随机/指定) - persona = _resolve_persona(persona_text) if persona_text else None - if persona: - _auto_log_append(f"🎭 人设: {persona[:20]}...") - - if use_weights: - # 使用加权文案生成 (携带权重洞察) - weight_insights = f"高权重主题: {', '.join(list(analytics._weights.get('topic_weights', {}).keys())[:5])}\n" - weight_insights += f"权重摘要: {analytics.weights_summary}" - title_advice = _analytics.get_title_advice() - hot_tags = ", ".join(analytics.get_top_tags(8)) - try: - data = svc.generate_weighted_copy(topic, style, weight_insights, title_advice, hot_tags, sd_model_name=sd_model_name, persona=persona) - _auto_log_append("🧠 使用智能加权文案模板") - except Exception as e: - logger.warning("加权文案生成失败, 退回普通模式: %s", e) - data = svc.generate_copy(topic, style, sd_model_name=sd_model_name, persona=persona) - _auto_log_append("⚠️ 加权模板异常, 使用普通模板") - else: - data = svc.generate_copy(topic, style, sd_model_name=sd_model_name, persona=persona) - - title = (data.get("title", "") or "")[:20] - content = data.get("content", "") - sd_prompt = data.get("sd_prompt", "") - tags = data.get("tags", []) - - # 如果有高权重标签,补充到 tags 中 - if use_weights: - top_tags = _analytics.get_top_tags(5) - for t in top_tags: - if t not in tags: - tags.append(t) - tags = tags[:10] # 限制最多10个标签 - - if not title: - _record_error() - return "❌ 文案生成失败:无标题" - _auto_log_append(f"📄 文案: {title}") - - # 生成图片 - if not sd_url_val or not sd_model_name: - return "❌ SD WebUI 未连接或未选择模型,请先在全局设置中连接" - - sd_svc = SDService(sd_url_val) - # 自动发布也支持换脸 - face_image = None - if face_swap_on: - face_image = SDService.load_face_image() - if face_image: - _auto_log_append("🎭 换脸已启用") - else: - _auto_log_append("⚠️ 换脸已启用但未找到头像,跳过换脸") - images = sd_svc.txt2img(prompt=sd_prompt, model=sd_model_name, - face_image=face_image, - quality_mode=quality_mode_val or "快速 (约30秒)", - persona=persona) - if not images: - _record_error() - return "❌ 图片生成失败:没有返回图片" - _auto_log_append(f"🎨 已生成 {len(images)} 张图片") - - # 本地备份(同时用于发布) - ts = int(time.time()) - safe_title = re.sub(r'[\\/*?:"<>|]', "", title)[:20] - backup_dir = os.path.join(OUTPUT_DIR, f"{ts}_{safe_title}") - os.makedirs(backup_dir, exist_ok=True) - - # 保存文案 - with open(os.path.join(backup_dir, "文案.txt"), "w", encoding="utf-8") as f: - f.write(f"标题: {title}\n风格: {style}\n主题: {topic}\n\n{content}\n\n标签: {', '.join(tags)}\n\nSD Prompt: {sd_prompt}") - - image_paths = [] - for idx, img in enumerate(images): - if isinstance(img, Image.Image): - path = os.path.abspath(os.path.join(backup_dir, f"图{idx+1}.jpg")) - if img.mode != "RGB": - img = img.convert("RGB") - img.save(path, format="JPEG", quality=95) - image_paths.append(path) - - if not image_paths: - return "❌ 图片保存失败" - - _auto_log_append(f"💾 本地已备份至: {backup_dir}") - - # 发布到小红书 - client = get_mcp_client(mcp_url) - result = client.publish_content( - title=title, content=content, images=image_paths, tags=tags + topics = topics_str if topics_str else ",".join(DEFAULT_TOPICS) + msg = generate_to_queue( + topics, sd_url_val, sd_model_name, model, + persona_text=persona_text, quality_mode_val=quality_mode_val, + face_swap_on=face_swap_on, count=1, + auto_schedule=True, auto_approve=True, ) - if "error" in result: - _record_error() - _auto_log_append(f"❌ 发布失败: {result['error']} (文案已本地保存)") - return f"❌ 发布失败: {result['error']}\n💾 文案和图片已备份至: {backup_dir}" + _auto_log_append(f"📋 内容已入队: {msg}") - _increment_stat("publishes") - _clear_error_streak() - - # 清理 _temp_publish 中的旧临时文件 - temp_dir = os.path.join(OUTPUT_DIR, "_temp_publish") + # 检查 QueuePublisher 是否在运行 try: - if os.path.exists(temp_dir): - for f in os.listdir(temp_dir): - fp = os.path.join(temp_dir, f) - if os.path.isfile(fp) and time.time() - os.path.getmtime(fp) > 3600: - os.remove(fp) - except Exception: + from .queue_ops import _queue_publisher + if _queue_publisher and not _queue_publisher.is_running: + _auto_log_append("⚠️ 队列处理器未启动,内容已入队但需启动处理器以自动发布") + return msg + "\n⚠️ 请启动队列处理器以自动发布" + except ImportError: pass - _auto_log_append(f"🚀 发布成功: {title} (今日第{_daily_stats['publishes']}篇)") - return f"✅ 发布成功!\n📌 标题: {title}\n💾 备份: {backup_dir}\n📊 今日发布: {_daily_stats['publishes']}/{DAILY_LIMITS['publishes']}\n{result.get('text', '')}" + return msg except Exception as e: _record_error() @@ -760,13 +655,17 @@ def _scheduler_loop(comment_enabled, publish_enabled, reply_enabled, like_enable _auto_log_append(f"⏰ 下次收藏: {interval // 60} 分钟后") _update_next_display() - # 自动发布 + # 自动发布(通过队列) if publish_enabled and now >= next_publish: try: - _auto_log_append("--- 🔄 执行自动发布 ---") - msg = auto_publish_once(topics, mcp_url, sd_url_val, sd_model_name, model, - persona_text=persona_text, quality_mode_val=quality_mode_val, - face_swap_on=face_swap_on) + _auto_log_append("--- 🔄 执行自动发布(队列模式) ---") + from .queue_ops import generate_to_queue + msg = generate_to_queue( + topics, sd_url_val, sd_model_name, model, + persona_text=persona_text, quality_mode_val=quality_mode_val, + face_swap_on=face_swap_on, count=1, + auto_schedule=True, auto_approve=True, + ) _auto_log_append(msg) except Exception as e: _auto_log_append(f"❌ 自动发布异常: {e}") @@ -1065,6 +964,89 @@ def stop_learn_scheduler(): return "🛑 定时学习已停止" +# ================================================== +# 热点自动采集 +# ================================================== + +_hotspot_collector_running = threading.Event() +_hotspot_collector_thread: threading.Thread | None = None + + +def _hotspot_collector_loop(keywords: list[str], interval_hours: float, mcp_url: str, model: str): + """热点自动采集后台循环:遍历 keywords → 搜索 → LLM 分析 → 写入状态缓存""" + from .hotspot import search_hotspots, analyze_and_suggest + + logger.info("热点自动采集已启动, 关键词=%s, 间隔=%s小时", keywords, interval_hours) + _auto_log_append(f"🔥 热点自动采集已启动, 每 {interval_hours} 小时采集一次, 关键词: {', '.join(keywords)}") + + while _hotspot_collector_running.is_set(): + for kw in keywords: + if not _hotspot_collector_running.is_set(): + break + try: + _auto_log_append(f"🔥 自动采集热点: 搜索「{kw}」...") + status, search_result = search_hotspots(kw, "最多点赞", mcp_url) + if "❌" in status or not search_result: + _auto_log_append(f"⚠️ 热点搜索失败: {status}") + continue + + _auto_log_append(f"🔥 自动采集热点: AI 分析「{kw}」...") + a_status, _, _, _ = analyze_and_suggest(model, kw, search_result) + _auto_log_append(f"🔥 热点采集「{kw}」: {a_status}") + + except Exception as e: + _auto_log_append(f"⚠️ 热点采集「{kw}」异常: {e}") + + # 关键词间间隔,避免过快请求 + for _ in range(30): + if not _hotspot_collector_running.is_set(): + break + time.sleep(1) + + # 等待下一轮 + wait_seconds = int(interval_hours * 3600) + _auto_log_append(f"🔥 热点采集完成一轮, {interval_hours}小时后再次采集") + for _ in range(int(wait_seconds / 5)): + if not _hotspot_collector_running.is_set(): + break + time.sleep(5) + + logger.info("热点自动采集已停止") + _auto_log_append("🔥 热点自动采集已停止") + + +def start_hotspot_collector(keywords_str: str, interval_hours: float, mcp_url: str, model: str): + """启动热点自动采集""" + global _hotspot_collector_thread + if _hotspot_collector_running.is_set(): + return "⚠️ 热点自动采集已在运行中" + + keywords = [k.strip() for k in keywords_str.split(",") if k.strip()] + if not keywords: + return "❌ 请输入至少一个采集关键词" + + api_key, _, _ = _get_llm_config() + if not api_key: + return "❌ LLM 未配置,请先在全局设置中配置提供商" + + _hotspot_collector_running.set() + _hotspot_collector_thread = threading.Thread( + target=_hotspot_collector_loop, + args=(keywords, interval_hours, mcp_url, model), + daemon=True, + ) + _hotspot_collector_thread.start() + return f"✅ 热点自动采集已启动 🔥 每 {int(interval_hours)} 小时采集一次, 关键词: {', '.join(keywords)}" + + +def stop_hotspot_collector(): + """停止热点自动采集""" + if not _hotspot_collector_running.is_set(): + return "⚠️ 热点自动采集未在运行" + _hotspot_collector_running.clear() + return "🛑 热点自动采集已停止" + + # ================================================== # Windows 开机自启管理 # ================================================== diff --git a/ui/app.py b/ui/app.py index b8a968d..b3b97d5 100644 --- a/ui/app.py +++ b/ui/app.py @@ -26,6 +26,7 @@ from services.persona import ( from services.hotspot import ( search_hotspots, analyze_and_suggest, generate_from_hotspot, fetch_proactive_notes, on_proactive_note_selected, + get_last_analysis, feed_hotspot_to_engine, ) from services.engagement import ( load_note_for_comment, ai_generate_comment, send_comment, @@ -41,6 +42,7 @@ from services.scheduler import ( _auto_comment_with_log, _auto_like_with_log, _auto_favorite_with_log, _auto_publish_with_log, _auto_reply_with_log, start_learn_scheduler, stop_learn_scheduler, + start_hotspot_collector, stop_hotspot_collector, _get_stats_summary, ) from services.queue_ops import ( @@ -62,10 +64,10 @@ logger = logging.getLogger("autobot") # ========== 新增回调: 选题推荐 / 批量创作 / 图文匹配 ========== def _fn_topic_recommend(model_name): - """获取智能选题推荐列表""" + """获取智能选题推荐列表(自动注入热点数据)""" analytics = AnalyticsService() engine = TopicEngine(analytics) - return engine.recommend_topics(count=5) + return feed_hotspot_to_engine(engine) def _fn_batch_generate(model_name, topics, style, sd_model_name, persona_text, template_name): @@ -311,6 +313,10 @@ def build_app(cfg: "ConfigManager", analytics: "AnalyticsService") -> gr.Blocks: label="排期时间 (可选)", placeholder="如 2026-02-10 18:00:00,留空=仅草稿", ) + queue_auto_schedule = gr.Checkbox( + label="🤖 自动排期(基于历史数据智能分配最优发布时段)", + value=False, + ) btn_queue_generate = gr.Button( "📝 批量生成 → 加入队列", variant="primary", size="lg", ) @@ -375,7 +381,29 @@ def build_app(cfg: "ConfigManager", analytics: "AnalyticsService") -> gr.Blocks: ) gr.Markdown("---") - gr.Markdown("#### 👁️ 内容预览") + gr.Markdown("#### � 推荐发布时段") + def _get_time_weights_display(): + a = AnalyticsService() + tw = a.get_time_weights() + if not tw: + return "暂无时段数据" + sorted_tw = sorted(tw.items(), + key=lambda x: x[1] if isinstance(x[1], (int, float)) else x[1].get("weight", 0), + reverse=True) + lines = ["| 时段 | 权重 | 推荐度 |"] + lines.append("|------|:----:|--------|") + for slot, info in sorted_tw: + w = info if isinstance(info, (int, float)) else info.get("weight", 0) + bar = "█" * (w // 10) + "░" * (10 - w // 10) + lines.append(f"| {slot} | {w} | {bar} |") + return "\n".join(lines) + + queue_time_recommend = gr.Markdown( + value=_get_time_weights_display(), + ) + + gr.Markdown("---") + gr.Markdown("#### �👁️ 内容预览") queue_preview_display = gr.Markdown( value="*选择队列项 ID 后点击预览*", ) @@ -404,6 +432,12 @@ def build_app(cfg: "ConfigManager", analytics: "AnalyticsService") -> gr.Blocks: btn_analyze = gr.Button("🧠 AI 分析热点趋势", variant="primary") analysis_status = gr.Markdown("") analysis_output = gr.Markdown(label="分析报告") + + with gr.Row(): + hot_topic_dropdown = gr.Dropdown( + choices=[], label="💡 推荐选题 (从分析结果自动填充)", + interactive=True, allow_custom_value=True, + ) topic_from_hot = gr.Textbox( label="选择/输入创作选题", placeholder="基于分析选一个方向", ) @@ -427,6 +461,29 @@ def build_app(cfg: "ConfigManager", analytics: "AnalyticsService") -> gr.Blocks: variant="primary", ) + gr.Markdown("---") + gr.Markdown("#### 🔥 热点自动采集") + gr.Markdown("> 后台定时搜索热门内容并 AI 分析,自动更新热点缓存供选题使用") + with gr.Row(): + hotspot_collect_keywords = gr.Textbox( + label="采集关键词 (逗号分隔)", + value=", ".join(config.get("hotspot_auto_collect", {}).get("keywords", ["穿搭", "美妆", "好物"])), + placeholder="穿搭, 美妆, 好物", + ) + hotspot_collect_interval = gr.Number( + label="采集间隔 (小时)", + value=config.get("hotspot_auto_collect", {}).get("interval_hours", 4), + minimum=1, maximum=48, + ) + with gr.Row(): + btn_hotspot_collect_start = gr.Button( + "▶ 启动自动采集", variant="primary", size="sm", + ) + btn_hotspot_collect_stop = gr.Button( + "⏹ 停止", variant="stop", size="sm", + ) + hotspot_collect_status = gr.Markdown("⚪ 热点自动采集未启动") + # -------- Tab 3: 评论管家 -------- with gr.Tab("💬 评论管家"): gr.Markdown("### 智能评论管理:主动评论引流 & 自动回复粉丝") @@ -1008,7 +1065,14 @@ def build_app(cfg: "ConfigManager", analytics: "AnalyticsService") -> gr.Blocks: btn_analyze.click( fn=analyze_and_suggest, inputs=[llm_model, hot_keyword, search_output], - outputs=[analysis_status, analysis_output, topic_from_hot], + outputs=[analysis_status, analysis_output, topic_from_hot, hot_topic_dropdown], + ) + + # 推荐选题下拉:选中后写入选题输入框 + hot_topic_dropdown.change( + fn=lambda x: x or "", + inputs=[hot_topic_dropdown], + outputs=[topic_from_hot], ) btn_gen_from_hot.click( @@ -1024,6 +1088,18 @@ def build_app(cfg: "ConfigManager", analytics: "AnalyticsService") -> gr.Blocks: outputs=[res_title, res_content, res_prompt, res_tags, status_bar], ) + # 热点自动采集启停 + btn_hotspot_collect_start.click( + fn=start_hotspot_collector, + inputs=[hotspot_collect_keywords, hotspot_collect_interval, mcp_url, llm_model], + outputs=[hotspot_collect_status], + ) + btn_hotspot_collect_stop.click( + fn=stop_hotspot_collector, + inputs=[], + outputs=[hotspot_collect_status], + ) + # ---- Tab 3: 评论管家 ---- # == 子 Tab A: 主动评论引流 == @@ -1280,7 +1356,7 @@ def build_app(cfg: "ConfigManager", analytics: "AnalyticsService") -> gr.Blocks: fn=queue_generate_and_refresh, inputs=[queue_gen_topics, sd_url, sd_model, llm_model, persona, quality_mode, face_swap_toggle, - queue_gen_count, queue_gen_schedule], + queue_gen_count, queue_gen_schedule, queue_auto_schedule], outputs=[queue_gen_result, queue_table, queue_calendar, queue_processor_status], )