feat(系统): 新增 Windows 开机自启功能

- 新增开机自启管理模块,支持静默后台启动
- 创建 `_autostart.bat` 和 `_autostart.vbs` 脚本实现无窗口启动
- 在 UI 设置页面添加开机自启开关控件
- 通过注册表管理自启项,支持启用/禁用状态切换

♻️ refactor(评论): 优化评论解析逻辑并增强 AI 回复自然度

- 重构 `get_feed_comments` 方法,优先从结构化 JSON 提取评论数据
- 改进 `_parse_comments` 方法,支持多种嵌套格式的评论列表解析
- 新增 `_humanize` 和 `_humanize_content` 方法,去除 AI 生成内容的书面痕迹
- 调整多个提示词模板,强调真人化、口语化的写作风格,避免 AI 特征
- 提高生成回复和评论时的温度参数,增加输出多样性
This commit is contained in:
zhoujie 2026-02-09 21:20:14 +08:00
parent dbe695b551
commit 500e47ebcb
5 changed files with 442 additions and 89 deletions

3
_autostart.bat Normal file
View File

@ -0,0 +1,3 @@
@echo off
cd /d "F:\3_Personal\AI\xhs_bot\autobot"
"F:\3_Personal\AI\xhs_bot\autobot\.venv\Scripts\pythonw.exe" "F:\3_Personal\AI\xhs_bot\autobot\main.py"

3
_autostart.vbs Normal file
View File

@ -0,0 +1,3 @@
Set WshShell = CreateObject("WScript.Shell")
WshShell.Run chr(34) & "F:\3_Personal\AI\xhs_bot\autobot\_autostart.bat" & chr(34), 0
Set WshShell = Nothing

View File

@ -12,21 +12,40 @@ logger = logging.getLogger(__name__)
# ================= Prompt 模板 ================= # ================= Prompt 模板 =================
PROMPT_COPYWRITING = """ PROMPT_COPYWRITING = """
你是一个小红书爆款内容专家请根据用户主题生成内容 你是一个真实的小红书博主正在用手机编辑一篇笔记你不是内容专家你只是一个想认真分享的普通人
你的写作状态
想象你刚体验完某件事试了一个产品/去了一个地方/学到一个技巧打开小红书想跟朋友们聊聊你不会字字斟酌就是把感受写出来
标题规则(严格执行) 标题规则(严格执行)
1. 长度限制必须控制在 18 字以内含Emoji绝对不能超过 20 1. 长度限制必须控制在 18 字以内含Emoji绝对不能超过 20
2. 格式要求Emoji + 爆点关键词 + 核心痛点 2. 像你发朋友圈的语气口语化有情绪感可以用疑问句感叹句省略句
3. 禁忌禁止使用"第一""""顶级"等绝对化广告法违禁词 3. 可以加1-2个emoji但不要堆砌
4. 风格二极管标题震惊/后悔/必看/避雷/哭了具有强烈的点击欲望 4. 禁止广告法违禁词"第一" "" "顶级"
5. 好的标题示例"后悔没早买!这个真的绝了" "姐妹们被我找到了" "求求你们别再踩这个坑了"
6. 避免AI感标题不要用"震惊!" "必看!" "干货"这种过于营销的开头
正文规则 正文规则像说话一样写
1. 口语化多用Emoji分段清晰不堆砌长句 1. 想象你在跟闺蜜/朋友面对面聊天把她说的话打下来就对了
2. 正文控制在 600 字以内小红书限制 1000 2. 正文控制在 400-600
3. 结尾必须有 5 个以上相关话题标签(#)。 3. 不要像写作文一样"首先、其次、最后"用碎碎念的方式自然展开
4. 可以有小情绪吐槽感叹自嘲开心炸裂都行
5. emoji不要每句话都有穿插在情绪高点就好一段文字2-4个emoji足够
6. 真人笔记特征
- 会有"话说" "对了" "哦对" 这种口语转折
- 会有"不是我说" "真的会谢" "笑不活了"这种网络表达
- 会有不完整的句子省略号波浪号
- 段落长短不一有的段就一句话有的段会稍长
7. 绝对禁止
"值得一提的是" "需要注意的是" "总的来说" "综上所述"
"作为一个xxx" "在这里给大家分享"
排比句对仗工整的总结
每段都很整齐的1234结构
"小伙伴们" "宝子们" 等过度热情的称呼偶尔一次可以
8. 结尾加 5-8 个相关话题标签(#)
绘图 Prompt 绘图 Prompt
生成对应的 Stable Diffusion 英文提示词适配 JuggernautXL 模型强调 生成 Stable Diffusion 英文提示词适配 JuggernautXL 模型
- 人物要求最重要如果画面中有人物必须是东亚面孔的中国人使用 asian girl/boy, chinese, east asian features, black hair, dark brown eyes, delicate facial features, fair skin, slim figure 等描述绝对禁止出现西方人/欧美人特征 - 人物要求最重要如果画面中有人物必须是东亚面孔的中国人使用 asian girl/boy, chinese, east asian features, black hair, dark brown eyes, delicate facial features, fair skin, slim figure 等描述绝对禁止出现西方人/欧美人特征
- 质量词masterpiece, best quality, ultra detailed, 8k uhd, high resolution - 质量词masterpiece, best quality, ultra detailed, 8k uhd, high resolution
- 光影natural lighting, soft shadows, studio lighting, golden hour 根据场景选择 - 光影natural lighting, soft shadows, studio lighting, golden hour 根据场景选择
@ -34,68 +53,131 @@ PROMPT_COPYWRITING = """
- 构图dynamic angle, depth of field, bokeh - 构图dynamic angle, depth of field, bokeh
- 细节detailed skin texture, sharp focus, vivid colors - 细节detailed skin texture, sharp focus, vivid colors
- 审美偏向整体画面风格偏向东方审美清新淡雅小红书风格 - 审美偏向整体画面风格偏向东方审美清新淡雅小红书风格
注意不要使用括号权重语法直接用英文逗号分隔描述 不要使用括号权重语法直接用英文逗号分隔描述
返回 JSON 格式 返回 JSON 格式
{"title": "...", "content": "...", "sd_prompt": "...", "tags": ["标签1", "标签2", ...]} {"title": "...", "content": "...", "sd_prompt": "...", "tags": ["标签1", "标签2", ...]}
""" """
PROMPT_HOTSPOT_ANALYSIS = """ PROMPT_HOTSPOT_ANALYSIS = """
你是一个小红书运营数据分析专家下面是搜索到的热门笔记信息 你是一个有实战经验的小红书运营人下面是搜索到的热门笔记信息
{feed_data} {feed_data}
请分析这些热门笔记总结以下内容 你要像一个真正做过内容运营的人来分析这些数据说话方式接地气一点不要写得像论文
1. **热门选题方向**提炼 3-5 个最火的细分选题
2. **标题套路**总结高赞标题的共同特征和写作模板 请分析以下方面
3. **内容结构**分析爆款笔记的内容组织方式
4. **推荐模仿方案**基于分析结果给出 3 个具体的模仿选题建议 1. **热门选题方向**提炼 3-5 个最火的细分选题不要只写大方向如"美妆""穿搭"要具体到用户真正感兴趣的切入角度
2. **标题拆解**这些高赞标题的套路是什么比如用了什么句式什么情绪钩子什么悬念直接举例说明不要写得很理论
3. **内容结构**爆款笔记是怎么组织内容的是先说痛点再给方案还是直接晒结果用大白话说清楚
4. **推荐模仿方案**给出 3 个具体的选题建议要具体到"如果是我来写,我会这样切入"的程度不要泛泛而谈
注意
- 你的分析是给一个普通创作者看的不是给甲方看报告
- 说人话不要堆砌专业术语
- "内容矩阵""赛道""心智占领""用户画像"这种运营黑话能不用就不用
- 建议要可执行不要写"结合自身特色打造差异化内容"这种废话
返回 JSON 格式 返回 JSON 格式
{{"hot_topics": ["...", "..."], "title_patterns": ["...", "..."], "content_structure": "...", "suggestions": [{{"topic": "...", "reason": "..."}}]}} {{"hot_topics": ["...", "..."], "title_patterns": ["...", "..."], "content_structure": "...", "suggestions": [{{"topic": "...", "reason": "..."}}]}}
""" """
PROMPT_COMMENT_REPLY = """ PROMPT_COMMENT_REPLY = """
你是一个小红书博主人设为{persona} 现在是一个真实的小红书博主你的人设是{persona}
有人在你的笔记下评论了请你用符合人设的口吻回复 粉丝在你的笔记下留言了你需要像真人一样自然回复
规则 核心模拟原则极其重要
1. 回复简洁控制在 50 字以内 你必须模拟一个真实的活生生的小红书用户在手机上随手打字的状态
2. 语气亲切自然像和朋友聊天 - 打字随意不追求语法完美偶尔可以有口语化的省略
3. 适当加入 1-2 Emoji - 真人不会每句话都加 emoji有时一个都不加也很正常
4. 如果是质疑礼貌回应如果是夸奖真诚感谢 - 绝对不要用"哈哈哈"开头这是 AI 最常见的暴露特征
- 不要用书面化的转折词"不过""然而""但是""确实"用口语"""""""是吧""对对对""哇塞"
- 回复可以很短甚至只有几个字"谢谢宝!""对的呀""试试看~"
- 绝对不要用逗号和句号写出完整的完美句子真人打字经常没有标点
- 不要用感叹号过多真人回复感叹号一般不超过1个
- 不要用""""""等语气词堆砌在一起
回复策略
- 如果是夸奖/支持 简短感谢可以适当撒娇或害羞"嘿嘿被你发现了""爱你""抱住"
- 如果是提问 直接回答不要先说"这个问题很好"之类的废话
- 如果是质疑/负面 轻松带过或幽默化解不要长篇大论解释
- 如果是分享经历 表示共鸣简短回应
- 如果评论很简短比如"好看""不错" 你的回复也应该很简短
禁止出现的 AI 特征
"谢谢你的xxx" "感谢你的分享/支持/喜欢"
"作为一个xxx" "我觉得xxx"
完整的主谓宾结构句子
连续使用3个以上emoji
"哈哈哈"开头
每句话都有标点符号
排比句对仗句
"宝子""姐妹""家人们"等称呼除非人设就是这种风格
笔记标题{post_title} 笔记标题{post_title}
用户评论{comment} 粉丝评论{comment}
直接返回回复内容不需要 JSON 格式 直接输出回复内容不要有任何解释回复长度请匹配对方评论的长度对方说的短你也短对方说的长你可以稍长一点
""" """
PROMPT_PROACTIVE_COMMENT = """ PROMPT_PROACTIVE_COMMENT = """
你是一个小红书活跃用户人设为{persona} 你必须完美伪装成一个真实的小红书用户你的人设是{persona}
你正在浏览一篇笔记想要留下一条真诚有价值的评论以提升互动和曝光 你正在刷小红书看到了一篇笔记你想留一条看起来像真人写的评论
核心!!你是一个在手机上随手打字的普通人
把自己想象成一个躺在沙发上刷手机的人看到一篇笔记后随手评论
你打字很随意不会字字斟酌想到什么说什么
真人评论特征必须遵循
1. 长度自然变化有时候一句话"救命也太好看了吧"有时候两三句极少超过50字
2. 真人打字习惯
- 经常省略主语"看完立马下单了" 而不是 "我看完后立马下单了"
- 会用缩写和网络用语"绝绝子""yyds""蹲一个""dd""awsl"
- 感叹用语如 "天哪""救命""啊啊啊""绝了" 而不是文绉绉的"真的很棒"
- 偶尔打错字也ok但不要刻意
3. emoji 使用规则
- 50%的概率不加任何emoji
- 加的话最多1-2而且偏好 😭🫠🥺😍 这类情绪化的
- 不要用 💫🌟 这种博主式的装饰emoji
4. 绝对不要分点列举真人评论从不分1234条说
5. 不要用完整标点真人评论经常没逗号句号
评论类型随机选择一种自然风格
- 分享真实感受"这个颜色实物真的绝了 上次路过柜台试了一下就走不动了"
- 提一个具体问题"这个是什么色号呀""博主身高多少 我怕买了不合适"
- 表达种草"看完直接去搜了""钱包在哭泣"
- 补充相关经验"我之前买过xxx 感觉跟这个搭也蛮好看的"
- 简短共鸣"真的!""笑死""太真实了""懂了"
绝对禁止这些是AI评论的特征
"写得真好" "内容很有价值" "干货满满" "收藏了"
"博主太厉害了" "学到了" "受益匪浅" "非常实用"
"我也觉得xxx" "我认为xxx" 这种过于理性客观的表达
"首先...其次...最后..." 任何分点罗列
"哈哈"开头
超过3个emoji
完整规范的标点使用
每句话都很完整很正式
同时出现""和emoji选一个就够了
把笔记标题的关键词重复一遍比如笔记标题说"穿搭"你就评论"穿搭真好看"
笔记信息 笔记信息
标题{post_title} 标题{post_title}
正文摘要{post_content} 正文摘要{post_content}
已有评论参考可能为空 已有评论参考避免重复
{existing_comments} {existing_comments}
评论规则 请直接输出一条评论不要有任何解释或前缀记住你是一个真人不是AI
1. 评论简洁自然控制在 30-80 不要像机器人
2. 体现你对笔记内容的真实感受或个人经验
3. 可以提问分享类似经历或表达共鸣
4. 适当加入 1-2 Emoji不要过多
5. 不要重复已有评论的观点找新角度
6. 不要生硬带货或自我推广
7. 语气因内容而异教程类请教/补充种草类分享体验生活类表达共鸣
直接返回评论内容不需要 JSON 格式
""" """
PROMPT_COPY_WITH_REFERENCE = """ PROMPT_COPY_WITH_REFERENCE = """
你是一个小红书爆款内容专家参考以下热门笔记的风格和结构创作全新原创内容 你是一个真实的小红书博主正在参考一些热门笔记来写一篇自己的原创内容
你不是在写营销文案你只是觉得这些笔记写得不错想借鉴思路写一篇自己的体验分享
参考笔记 参考笔记
{reference_notes} {reference_notes}
@ -105,12 +187,25 @@ PROMPT_COPY_WITH_REFERENCE = """
标题规则 标题规则
1. 长度限制必须控制在 18 字以内含Emoji绝对不能超过 20 1. 长度限制必须控制在 18 字以内含Emoji绝对不能超过 20
2. 借鉴参考笔记的标题套路但内容必须原创 2. 学习参考笔记标题的情绪感和口语感但内容完全原创
3. 写得像你发给朋友看的那种不要像广告
正文规则 正文规则写得像真人
1. 口语化多用Emoji分段清晰 1. 想象你是刚体验完然后打开小红书写笔记把你的真实感受和过程写出来
2. 正文控制在 600 字以内 2. 正文控制在 400-600
3. 结尾有 5 个以上话题标签(#)。 3. 真人写法
- 开头可以直接说事不需要"嗨大家好"之类的开场白
- 中间夹杂一些个人感受和小吐槽"一开始还在犹豫 结果用了之后真香"
- 不要面面俱到什么优点都说一遍挑2-3个最有感触的重点说
- 可以适当说一两个小缺点让内容更真实"唯一的缺点就是xxx 但瑕不掩瑜"
- 段落自然分割有的段一两句有的段稍长
4. emoji 穿插在情绪高点不要每句都有整篇 6-10 个足够
5. 绝对禁止
排比句对仗句"不仅...而且..." "既...又..."
"值得一提" "需要注意" "总结一下" 等总结性书面用语
每个段落都很工整的1234结构
面面俱到地罗列所有优点
6. 结尾加 5-8 个话题标签(#)
绘图 Prompt 绘图 Prompt
生成 Stable Diffusion 英文提示词适配 JuggernautXL 模型 生成 Stable Diffusion 英文提示词适配 JuggernautXL 模型
@ -198,7 +293,8 @@ class LLMService:
"""生成小红书文案""" """生成小红书文案"""
content = self._chat( content = self._chat(
PROMPT_COPYWRITING, PROMPT_COPYWRITING,
f"主题:{topic}\n风格:{style}" f"主题:{topic}\n风格:{style}",
temperature=0.92,
) )
data = self._parse_json(content) data = self._parse_json(content)
@ -208,6 +304,10 @@ class LLMService:
title = title[:20] title = title[:20]
data["title"] = title data["title"] = title
# 去 AI 化后处理
if "content" in data:
data["content"] = self._humanize_content(data["content"])
return data return data
def generate_copy_with_reference(self, topic: str, style: str, def generate_copy_with_reference(self, topic: str, style: str,
@ -216,12 +316,18 @@ class LLMService:
prompt = PROMPT_COPY_WITH_REFERENCE.format( prompt = PROMPT_COPY_WITH_REFERENCE.format(
reference_notes=reference_notes, topic=topic, style=style reference_notes=reference_notes, topic=topic, style=style
) )
content = self._chat(prompt, f"请创作关于「{topic}」的小红书笔记") content = self._chat(prompt, f"请创作关于「{topic}」的小红书笔记",
temperature=0.92)
data = self._parse_json(content) data = self._parse_json(content)
title = data.get("title", "") title = data.get("title", "")
if len(title) > 20: if len(title) > 20:
data["title"] = title[:20] data["title"] = title[:20]
# 去 AI 化后处理
if "content" in data:
data["content"] = self._humanize_content(data["content"])
return data return data
def analyze_hotspots(self, feed_data: str) -> dict: def analyze_hotspots(self, feed_data: str) -> dict:
@ -230,12 +336,70 @@ class LLMService:
content = self._chat(prompt, "请分析以上热门笔记数据") content = self._chat(prompt, "请分析以上热门笔记数据")
return self._parse_json(content) return self._parse_json(content)
@staticmethod
def _humanize_content(text: str) -> str:
"""后处理: 去除长文案中的 AI 书面痕迹"""
t = text
# 替换过于书面化的表达
ai_phrases = {
"值得一提的是": "对了",
"需要注意的是": "不过要注意",
"总的来说": "反正",
"综上所述": "总之",
"总而言之": "总之",
"不仅如此": "而且",
"与此同时": "然后",
"除此之外": "还有",
"众所周知": "",
"毋庸置疑": "",
"不言而喻": "",
"在这里给大家分享": "来分享",
"在此分享给大家": "分享一下",
"接下来让我们": "",
"话不多说": "",
"废话不多说": "",
"小伙伴们": "姐妹们",
}
for old, new in ai_phrases.items():
t = t.replace(old, new)
# 去掉 "首先" "其次" "最后" 的分点罗列感
t = re.sub(r'(?m)^首先[,:\s]*', '', t)
t = re.sub(r'(?m)^其次[,:\s]*', '', t)
t = re.sub(r'(?m)^最后[,:\s]*', '', t)
t = re.sub(r'(?m)^再者[,:\s]*', '', t)
# 去掉AI常见的空洞开头
for prefix in ["嗨大家好!", "嗨,大家好!", "大家好,", "大家好!", "哈喽大家好!"]:
if t.startswith(prefix):
t = t[len(prefix):].strip()
# 清理多余空行
t = re.sub(r'\n{3,}', '\n\n', t)
return t.strip()
@staticmethod
def _humanize(text: str) -> str:
"""后处理: 去除 AI 输出中常见的非人类痕迹"""
t = text.strip()
# 去掉前后引号包裹
if (t.startswith('"') and t.endswith('"')) or (t.startswith("'") and t.endswith("'")):
t = t[1:-1].strip()
# 去掉 AI 常见的前缀
for prefix in ["回复:", "回复:", "评论:", "评论:", "以下是", "好的,"]:
if t.startswith(prefix):
t = t[len(prefix):].strip()
# 去掉末尾多余的句号(真人评论很少用句号结尾)
if t.endswith(""):
t = t[:-1]
# 限制连续 emoji最多2个
t = re.sub(r'([\U0001F600-\U0001F9FF\u2600-\u27BF])\1{2,}', r'\1\1', t)
return t
def generate_reply(self, persona: str, post_title: str, comment: str) -> str: def generate_reply(self, persona: str, post_title: str, comment: str) -> str:
"""AI 生成评论回复""" """AI 生成评论回复"""
prompt = PROMPT_COMMENT_REPLY.format( prompt = PROMPT_COMMENT_REPLY.format(
persona=persona, post_title=post_title, comment=comment persona=persona, post_title=post_title, comment=comment
) )
return self._chat(prompt, "请生成回复", json_mode=False, temperature=0.9).strip() raw = self._chat(prompt, "请生成回复", json_mode=False, temperature=0.95)
return self._humanize(raw)
def generate_proactive_comment(self, persona: str, post_title: str, def generate_proactive_comment(self, persona: str, post_title: str,
post_content: str, existing_comments: str = "") -> str: post_content: str, existing_comments: str = "") -> str:
@ -245,4 +409,5 @@ class LLMService:
post_content=post_content, post_content=post_content,
existing_comments=existing_comments or "暂无评论", existing_comments=existing_comments or "暂无评论",
) )
return self._chat(prompt, "请生成评论", json_mode=False, temperature=0.9).strip() raw = self._chat(prompt, "请生成评论", json_mode=False, temperature=0.95)
return self._humanize(raw)

146
main.py
View File

@ -1462,16 +1462,8 @@ def auto_reply_once(max_replies, mcp_url, model, persona_text):
time.sleep(random.uniform(1, 3)) time.sleep(random.uniform(1, 3))
# 加载笔记详情(含评论) # 加载笔记评论(使用结构化接口)
detail = client.get_feed_detail(feed_id, xsec_token, load_all_comments=True) comments = client.get_feed_comments(feed_id, xsec_token, load_all=True)
if "error" in detail:
_auto_log_append(f"⚠️ 加载「{title[:15]}」评论失败,跳过")
continue
full_text = detail.get("text", "")
# 解析评论
comments = client._parse_comments(full_text)
if not comments: if not comments:
continue continue
@ -1871,6 +1863,121 @@ def get_scheduler_status():
return "⚪ **调度器未运行**" return "⚪ **调度器未运行**"
# ==================================================
# Windows 开机自启管理
# ==================================================
_APP_NAME = "XHS_AI_AutoBot"
_STARTUP_REG_KEY = r"Software\Microsoft\Windows\CurrentVersion\Run"
def _get_startup_script_path() -> str:
"""获取启动脚本路径(.vbs 静默启动,不弹黑窗)"""
return os.path.join(os.path.dirname(os.path.abspath(__file__)), "_autostart.vbs")
def _get_startup_bat_path() -> str:
"""获取启动 bat 路径"""
return os.path.join(os.path.dirname(os.path.abspath(__file__)), "_autostart.bat")
def _create_startup_scripts():
"""创建静默启动脚本bat + vbs"""
app_dir = os.path.dirname(os.path.abspath(__file__))
venv_python = os.path.join(app_dir, ".venv", "Scripts", "pythonw.exe")
# 如果没有 pythonw退回 python.exe
if not os.path.exists(venv_python):
venv_python = os.path.join(app_dir, ".venv", "Scripts", "python.exe")
main_script = os.path.join(app_dir, "main.py")
# 创建 bat
bat_path = _get_startup_bat_path()
bat_content = f"""@echo off
cd /d "{app_dir}"
"{venv_python}" "{main_script}"
"""
with open(bat_path, "w", encoding="utf-8") as f:
f.write(bat_content)
# 创建 vbs静默运行 bat不弹出命令行窗口
vbs_path = _get_startup_script_path()
vbs_content = f"""Set WshShell = CreateObject("WScript.Shell")
WshShell.Run chr(34) & "{bat_path}" & chr(34), 0
Set WshShell = Nothing
"""
with open(vbs_path, "w", encoding="utf-8") as f:
f.write(vbs_content)
return vbs_path
def is_autostart_enabled() -> bool:
"""检查是否已设置开机自启"""
if platform.system() != "Windows":
return False
try:
import winreg
key = winreg.OpenKey(winreg.HKEY_CURRENT_USER, _STARTUP_REG_KEY, 0, winreg.KEY_READ)
try:
val, _ = winreg.QueryValueEx(key, _APP_NAME)
winreg.CloseKey(key)
return bool(val)
except FileNotFoundError:
winreg.CloseKey(key)
return False
except Exception:
return False
def enable_autostart() -> str:
"""启用 Windows 开机自启"""
if platform.system() != "Windows":
return "❌ 此功能仅支持 Windows 系统"
try:
import winreg
vbs_path = _create_startup_scripts()
key = winreg.OpenKey(winreg.HKEY_CURRENT_USER, _STARTUP_REG_KEY, 0, winreg.KEY_SET_VALUE)
# 用 wscript 运行 vbs 以实现静默启动
winreg.SetValueEx(key, _APP_NAME, 0, winreg.REG_SZ, f'wscript.exe "{vbs_path}"')
winreg.CloseKey(key)
logger.info(f"开机自启已启用: {vbs_path}")
return "✅ 开机自启已启用\n下次开机时将自动后台运行本程序"
except Exception as e:
logger.error(f"设置开机自启失败: {e}")
return f"❌ 设置失败: {e}"
def disable_autostart() -> str:
"""禁用 Windows 开机自启"""
if platform.system() != "Windows":
return "❌ 此功能仅支持 Windows 系统"
try:
import winreg
key = winreg.OpenKey(winreg.HKEY_CURRENT_USER, _STARTUP_REG_KEY, 0, winreg.KEY_SET_VALUE)
try:
winreg.DeleteValue(key, _APP_NAME)
except FileNotFoundError:
pass
winreg.CloseKey(key)
# 清理启动脚本
for f in [_get_startup_script_path(), _get_startup_bat_path()]:
if os.path.exists(f):
os.remove(f)
logger.info("开机自启已禁用")
return "✅ 开机自启已禁用"
except Exception as e:
logger.error(f"禁用开机自启失败: {e}")
return f"❌ 禁用失败: {e}"
def toggle_autostart(enabled: bool) -> str:
"""切换开机自启状态(供 UI 调用)"""
if enabled:
return enable_autostart()
else:
return disable_autostart()
# ================================================== # ==================================================
# UI 构建 # UI 构建
# ================================================== # ==================================================
@ -1959,6 +2066,18 @@ with gr.Blocks(
) )
status_bar = gr.Markdown("🔄 等待连接...") status_bar = gr.Markdown("🔄 等待连接...")
gr.Markdown("---")
gr.Markdown("#### 🖥️ 系统设置")
with gr.Row():
autostart_toggle = gr.Checkbox(
label="🚀 Windows 开机自启(静默后台运行)",
value=is_autostart_enabled(),
interactive=(platform.system() == "Windows"),
)
autostart_status = gr.Markdown(
value="✅ 已启用" if is_autostart_enabled() else "⚪ 未启用",
)
# ============ Tab 页面 ============ # ============ Tab 页面 ============
with gr.Tabs(): with gr.Tabs():
# -------- Tab 1: 内容创作 -------- # -------- Tab 1: 内容创作 --------
@ -2738,6 +2857,13 @@ with gr.Blocks(
outputs=[sched_status, auto_stats_display], outputs=[sched_status, auto_stats_display],
) )
# ---- 开机自启 ----
autostart_toggle.change(
fn=toggle_autostart,
inputs=[autostart_toggle],
outputs=[autostart_status],
)
# ---- 启动时自动刷新 SD ---- # ---- 启动时自动刷新 SD ----
app.load(fn=connect_sd, inputs=[sd_url], outputs=[sd_model, status_bar]) app.load(fn=connect_sd, inputs=[sd_url], outputs=[sd_model, status_bar])

View File

@ -273,55 +273,82 @@ class MCPClient:
return self._parse_feed_entries(result.get("text", "")) return self._parse_feed_entries(result.get("text", ""))
@staticmethod @staticmethod
def _parse_comments(text: str) -> list[dict]: def _extract_comment_obj(c: dict) -> dict:
"""从单个评论 JSON 对象提取结构化数据"""
user_info = c.get("userInfo") or c.get("user") or {}
return {
"comment_id": str(c.get("id", c.get("commentId", ""))),
"user_id": user_info.get("userId", user_info.get("user_id", "")),
"nickname": user_info.get("nickname", user_info.get("nickName", "未知")),
"content": c.get("content", ""),
"sub_comment_count": c.get("subCommentCount", 0),
}
@staticmethod
def _find_comment_list(data: dict) -> list:
"""在多种嵌套结构中定位评论列表"""
if not isinstance(data, dict):
return []
# 格式1: {"data": {"comments": {"list": [...]}}} —— 实际 MCP 返回
d = data.get("data", {})
if isinstance(d, dict):
cm = d.get("comments", {})
if isinstance(cm, dict) and "list" in cm:
return cm["list"]
if isinstance(cm, list):
return cm
# 格式2: {"comments": {"list": [...]}}
cm = data.get("comments", {})
if isinstance(cm, dict) and "list" in cm:
return cm["list"]
if isinstance(cm, list):
return cm
# 格式3: {"data": [{...}, ...]} (直接列表)
if isinstance(d, list):
return d
return []
@classmethod
def _parse_comments(cls, text: str) -> list[dict]:
"""从笔记详情文本中解析评论列表为结构化数据 """从笔记详情文本中解析评论列表为结构化数据
返回: [{comment_id, user_id, nickname, content, sub_comment_count}, ...] 返回: [{comment_id, user_id, nickname, content, sub_comment_count}, ...]
""" """
comments = [] comments = []
# 方式1: 尝试 JSON 解析 # 方式1: 尝试 JSON 解析(支持多种嵌套格式)
try: try:
data = json.loads(text) data = json.loads(text)
raw_comments = [] raw_comments = []
if isinstance(data, dict): if isinstance(data, list):
raw_comments = data.get("comments", [])
elif isinstance(data, list):
raw_comments = data raw_comments = data
elif isinstance(data, dict):
raw_comments = cls._find_comment_list(data)
for c in raw_comments: for c in raw_comments:
user_info = c.get("userInfo") or c.get("user") or {} if isinstance(c, dict) and c.get("content"):
comments.append({ comments.append(cls._extract_comment_obj(c))
"comment_id": c.get("id", c.get("commentId", "")),
"user_id": user_info.get("userId", user_info.get("user_id", "")),
"nickname": user_info.get("nickname", user_info.get("nickName", "未知")),
"content": c.get("content", ""),
"sub_comment_count": c.get("subCommentCount", 0),
})
if comments: if comments:
return comments return comments
except (json.JSONDecodeError, TypeError, AttributeError): except (json.JSONDecodeError, TypeError, AttributeError):
pass pass
# 方式2: 正则提取 —— 适配多种 MCP 文本格式 # 方式2: 正则提取 —— 仅当 JSON 完全失败时使用
# 格式举例: "评论ID: xxx | 用户: xxx (userId) | 内容: xxx" # 逐个评论块提取,避免跨评论字段错位
# 或者: 用户名(@nickname): 评论内容 # 匹配 JSON 对象中相邻的 id + content + userInfo 组合
comment_ids = re.findall( comment_blocks = re.finditer(
r'(?:comment_?[Ii]d|评论ID|评论id|"id")["\s:]+([0-9a-f]{24})', text, re.I) r'"id"\s*:\s*"([0-9a-fA-F]{20,26})"[^}]*?'
user_ids = re.findall( r'"content"\s*:\s*"([^"]{1,500})"[^}]*?'
r'(?:user_?[Ii]d|userId|用户ID)["\s:]+([0-9a-f]{24})', text, re.I) r'"userInfo"\s*:\s*\{[^}]*?"userId"\s*:\s*"([0-9a-fA-F]{20,26})"'
nicknames = re.findall( r'[^}]*?"nickname"\s*:\s*"([^"]{1,30})"',
r'(?:nickname|昵称|用户名|用户)["\s:]+([^\n|,]{1,30})', text, re.I) text, re.DOTALL
contents = re.findall( )
r'(?:content|内容|评论内容)["\s:]+([^\n]{1,500})', text, re.I) for m in comment_blocks:
count = max(len(comment_ids), len(contents))
for i in range(count):
comments.append({ comments.append({
"comment_id": comment_ids[i] if i < len(comment_ids) else "", "comment_id": m.group(1),
"user_id": user_ids[i] if i < len(user_ids) else "", "user_id": m.group(3),
"nickname": (nicknames[i].strip() if i < len(nicknames) else ""), "nickname": m.group(4),
"content": (contents[i].strip() if i < len(contents) else ""), "content": m.group(2),
"sub_comment_count": 0, "sub_comment_count": 0,
}) })
@ -339,6 +366,35 @@ class MCPClient:
} }
return self._call_tool("get_feed_detail", args) return self._call_tool("get_feed_detail", args)
def get_feed_comments(self, feed_id: str, xsec_token: str,
load_all: bool = True) -> list[dict]:
"""获取笔记评论列表(结构化)
直接返回解析好的评论列表优先从 raw JSON 解析
"""
result = self.get_feed_detail(feed_id, xsec_token, load_all_comments=load_all)
if "error" in result:
return []
# 优先从 raw 结构中直接提取
raw = result.get("raw", {})
if raw and isinstance(raw, dict):
for item in raw.get("content", []):
if item.get("type") == "text":
try:
data = json.loads(item["text"])
comment_list = self._find_comment_list(data)
if comment_list:
return [self._extract_comment_obj(c)
for c in comment_list
if isinstance(c, dict) and c.get("content")]
except (json.JSONDecodeError, KeyError, TypeError):
pass
# 回退到 text 解析
text = result.get("text", "")
return self._parse_comments(text) if text else []
# ---------- 发布 ---------- # ---------- 发布 ----------
def publish_content(self, title: str, content: str, images: list[str], def publish_content(self, title: str, content: str, images: list[str],