Commit graph

116 commits

Author SHA1 Message Date
KawakazeNotFound
62d9a84bab 🐛 修复在长文本下容易触发tool_call错误 2025-11-06 16:33:41 +08:00
KawakazeNotFound
45316c97d1 ✏️ 修正ruff问题 2025-11-06 15:14:44 +08:00
KawakazeNotFound
375c2a593c 私聊初步测试通过 2025-11-06 15:11:49 +08:00
KawakazeNotFound
f7e9693985 📦 Update Poerty 2025-11-06 14:52:44 +08:00
KawakazeNotFound
5f4a8b8c41 📝 取消跟踪.DS_Store 2025-11-06 14:45:25 +08:00
KawakazeNotFound
3179ac3f37 🔨 尝试解决Ruff Lint问题 2025-11-06 11:27:41 +08:00
KawakazeNotFound
f9cb909bc2 🚀 触发检查 2025-11-06 11:20:33 +08:00
XokoukioX
ffecb9ecfa WIP::私聊功能实现 2025-11-06 00:31:17 +08:00
483917811c 📘 更新 README 2025-11-01 23:32:55 +08:00
ec126d164e 📘 更新 README 2025-11-01 23:31:22 +08:00
0a7313dfc5 🔖 更新版本号至0.4.1 2025-11-01 23:23:47 +08:00
a110b58a51 修改工具名称格式,优化OneBot和MCP工具的调用逻辑,增强错误处理 2025-11-01 23:23:23 +08:00
5da2c41f28 🔖 更新版本号至0.4.0 2025-10-31 17:13:25 +08:00
c03ed62983 ♻️ fix lint 2025-10-31 17:12:05 +08:00
e3774b3363 新增内置OneBot工具支持,包括禁言、获取群信息等功能,并优化工具调用逻辑 2025-10-31 17:07:10 +08:00
6bd65e3ff4 ♻️ 缓存MCP工具列表,大幅提升响应速度 2025-10-29 11:55:16 +08:00
1480d6e3e8 🔖 bump llmchat version 0.3.1 2025-10-13 17:48:27 +08:00
551bca556c 参考VSCode的mcp服务器configuration-format新增对sse服务器自定义header的支持 #22 2025-10-13 17:47:08 +08:00
556195b2cc 🔖 bump llmchat version 0.3.0 2025-09-09 10:06:41 +08:00
96c2202b7a 更新metadata,增加对Nano Banana(生图模型)的支持说明 2025-09-09 10:03:24 +08:00
9f014d80fa 📘 更新 README 2025-09-08 16:16:34 +08:00
494d7a8adc 支持 Gemini 2.5 Flash Image Preview (Nano Banana) 图片回复 2025-09-08 16:09:09 +08:00
720034cf1c 🔖 bump llmchat version 0.2.5 2025-09-01 10:56:31 +08:00
9c52f057f7 支持忽略特定前缀的消息 #21 2025-09-01 10:51:30 +08:00
2f6f0829a5 🐛 将mcp超时延长到30秒,避免执行失败 2025-09-01 10:45:18 +08:00
71604ca3fd 🔖 bump llmchat version 0.2.4 2025-08-20 12:48:13 +08:00
09f9cc3726 🐛 修复重复发送消息给llm的问题 2025-08-20 12:38:39 +08:00
d5815f2ee9 🐛 修复mcp服务器卡住导致的卡死 2025-08-20 11:40:54 +08:00
00f814542a 📘 更新 README 2025-05-19 14:17:25 +08:00
3e527b42f7 🐛 修复deque mutated during iteration 2025-05-16 21:43:08 +08:00
c21f8c00df 🔖 bump llmchat version 0.2.3 2025-05-13 14:02:23 +08:00
fd15005d85 📘 更新meta信息 2025-05-13 14:02:03 +08:00
0338412599 🐛 修复命令本身会触发回复的问题 2025-05-13 13:43:06 +08:00
1a11a84eed 🐛 修复多条消息中只处理最后一条消息的图片的问题 2025-05-13 13:41:28 +08:00
e568e4d64e 🐛 修复MCP调用过程中回复不分条的问题 2025-05-13 11:23:52 +08:00
25eb5a0284 🐛 修复某些协议端找不到图片url的问题 2025-05-12 15:26:39 +08:00
67968156a8 🔖 bump llmchat version 0.2.2 2025-05-11 15:45:57 +08:00
bb352345b1 支持用户黑名单 #20 2025-05-11 15:42:13 +08:00
6e478aceaf 📘 更新 README 2025-05-11 15:05:26 +08:00
FuQuan
6bf11ce363 Merge pull request #19 from duolanda/main
 support vision models
2025-05-11 14:51:14 +08:00
duolanda
9998954aa1 ♻️ fix lint problems 2025-05-11 00:41:05 +08:00
duolanda
0bf5fe0163 support vision models 2025-05-10 22:58:44 +08:00
23d8fc36e8 🐛 修复可能出现首条消息不为user消息导致报错的问题 2025-04-28 20:19:47 +08:00
FuQuan
ea2222f5d7 📘 更新 README 2025-04-27 18:08:50 +08:00
89e2e7fd53 🔖 bump llmchat version 0.2.1 2025-04-27 11:57:34 +08:00
d171cedfa1 🐛 修复assistant消息没有正确添加到历史记录的问题 2025-04-27 11:56:38 +08:00
c1e1075898 🔖 bump llmchat version 0.2.0 2025-04-26 23:00:14 +08:00
4708251a58 📘 更新插件description 2025-04-26 22:47:40 +08:00
e799ef0f1a 📘 更新 README 2025-04-26 22:46:32 +08:00
7fba04b2d7 ♻️ 增加MCP服务器友好名称为空时的处理 2025-04-26 22:45:53 +08:00