mirror of
https://github.com/FuQuan233/nonebot-plugin-llmchat.git
synced 2026-02-05 11:38:05 +00:00
320 lines
13 KiB
Markdown
320 lines
13 KiB
Markdown
<div align="center">
|
||
<a href="https://v2.nonebot.dev/store"><img src="https://github.com/A-kirami/nonebot-plugin-template/blob/resources/nbp_logo.png" width="180" height="180" alt="NoneBotPluginLogo"></a>
|
||
<br>
|
||
<p><img src="https://github.com/A-kirami/nonebot-plugin-template/blob/resources/NoneBotPlugin.svg" width="240" alt="NoneBotPluginText"></p>
|
||
</div>
|
||
|
||
<div align="center">
|
||
|
||
# nonebot-plugin-llmchat
|
||
|
||
_✨ 支持多API预设、MCP协议、内置工具、联网搜索、视觉模型、群聊&私聊的AI对话插件 ✨_
|
||
|
||
|
||
<a href="./LICENSE">
|
||
<img src="https://img.shields.io/github/license/FuQuan233/nonebot-plugin-llmchat.svg" alt="license">
|
||
</a>
|
||
<a href="https://pypi.python.org/pypi/nonebot-plugin-llmchat">
|
||
<img src="https://img.shields.io/pypi/v/nonebot-plugin-llmchat.svg" alt="pypi">
|
||
</a>
|
||
<img src="https://img.shields.io/badge/python-3.10+-blue.svg" alt="python">
|
||
<a href="https://deepwiki.com/FuQuan233/nonebot-plugin-llmchat"><img src="https://deepwiki.com/badge.svg" alt="Ask DeepWiki"></a>
|
||
|
||
</div>
|
||
|
||
## 📖 介绍
|
||
|
||
1. **支持LLM回复图片**
|
||
- 支持最新 Gemini 2.5 Flash Image (Nano Banana) 的图片回复
|
||
- 支持图片上下文修改
|
||
|
||
1. **支持MCP协议**
|
||
- 可以连接各种支持MCP协议的LLM工具
|
||
- 通过连接一些搜索MCP服务器可以实现在线搜索
|
||
- 兼容 Claude.app 的配置格式
|
||
|
||
1. **内置工具**
|
||
- 内置OneBot群操作工具,LLM可直接进行群管理操作(需模型支持tool_call)
|
||
- 支持禁言用户、获取群信息、查看群成员等功能
|
||
- 支持戳一戳、撤回消息等互动功能
|
||
|
||
1. **多API预设支持**
|
||
- 可配置多个LLM服务预设(如不同模型/API密钥)
|
||
- 支持运行时通过`API预设`命令热切换API配置
|
||
- 内置服务开关功能(预设名为`off`时停用)
|
||
|
||
1. **多种回复触发方式**
|
||
- @触发 + 随机概率触发
|
||
- 支持处理回复消息
|
||
- 群聊消息顺序处理,防止消息错乱
|
||
|
||
1. **群聊和私聊支持**
|
||
- 支持群聊场景(默认启用)
|
||
- 支持私聊场景(可选启用)
|
||
- 分别管理群聊和私聊的对话记忆
|
||
- 灵活的权限配置
|
||
|
||
1. **分群聊上下文记忆管理**
|
||
- 分群聊保留对话历史记录(可配置保留条数)
|
||
- 自动合并未处理消息,降低API用量
|
||
- 支持`记忆清除`命令手动重置对话上下文
|
||
|
||
1. **分段回复支持**
|
||
- 支持多段式回复(由LLM决定如何回复)
|
||
- 可@群成员(由LLM插入)
|
||
- 可选输出AI的思维过程(需模型支持)
|
||
|
||
1. **可自定义性格**
|
||
- 可动态修改群组专属系统提示词(`/修改设定`)
|
||
- 支持自定义默认提示词
|
||
|
||
## 💿 安装
|
||
|
||
<details open>
|
||
<summary>使用 nb-cli 安装</summary>
|
||
在 nonebot2 项目的根目录下打开命令行, 输入以下指令即可安装
|
||
|
||
nb plugin install nonebot-plugin-llmchat
|
||
|
||
</details>
|
||
|
||
<details>
|
||
<summary>使用包管理器安装</summary>
|
||
在 nonebot2 项目的插件目录下, 打开命令行, 根据你使用的包管理器, 输入相应的安装命令
|
||
|
||
<details>
|
||
<summary>pip</summary>
|
||
|
||
pip install nonebot-plugin-llmchat
|
||
</details>
|
||
<details>
|
||
<summary>pdm</summary>
|
||
|
||
pdm add nonebot-plugin-llmchat
|
||
</details>
|
||
<details>
|
||
<summary>poetry</summary>
|
||
|
||
poetry add nonebot-plugin-llmchat
|
||
</details>
|
||
<details>
|
||
<summary>conda</summary>
|
||
|
||
conda install nonebot-plugin-llmchat
|
||
</details>
|
||
|
||
打开 nonebot2 项目根目录下的 `pyproject.toml` 文件, 在 `[tool.nonebot]` 部分追加写入
|
||
|
||
plugins = ["nonebot_plugin_llmchat"]
|
||
|
||
</details>
|
||
|
||
## ⚙️ 配置
|
||
|
||
在 nonebot2 项目的`.env`文件中添加下表中的必填配置
|
||
|
||
| 配置项 | 必填 | 默认值 | 说明 |
|
||
|:-----:|:----:|:----:|:----:|
|
||
| NICKNAME | 是 | 无 | 机器人昵称,NoneBot自带配置项,本插件要求此项必填 |
|
||
| LLMCHAT__API_PRESETS | 是 | 无 | 见下表 |
|
||
| LLMCHAT__HISTORY_SIZE | 否 | 20 | LLM上下文消息保留数量(1-40),越大token消耗量越多 |
|
||
| LLMCHAT__PAST_EVENTS_SIZE | 否 | 10 | 触发回复时发送的群消息数量(1-20),越大token消耗量越多 |
|
||
| LLMCHAT__REQUEST_TIMEOUT | 否 | 30 | API请求超时时间(秒) |
|
||
| LLMCHAT__DEFAULT_PRESET | 否 | off | 默认使用的预设名称,配置为off则为关闭 |
|
||
| LLMCHAT__RANDOM_TRIGGER_PROB | 否 | 0.05 | 默认随机触发概率 [0, 1] |
|
||
| LLMCHAT__DEFAULT_PROMPT | 否 | 你的回答应该尽量简洁、幽默、可以使用一些语气词、颜文字。你应该拒绝回答任何政治相关的问题。 | 默认提示词 |
|
||
| LLMCHAT__BLACKLIST_USER_IDS | 否 | [] | 黑名单用户ID列表,机器人将不会处理黑名单用户的消息 |
|
||
| LLMCHAT__IGNORE_PREFIXES | 否 | [] | 需要忽略的消息前缀列表,匹配到这些前缀的消息不会处理 |
|
||
| LLMCHAT__MCP_SERVERS | 否 | {} | MCP服务器配置,具体见下表 |
|
||
| LLMCHAT__ENABLE_PRIVATE_CHAT | 否 | False | 是否启用私聊功能 |
|
||
| LLMCHAT__PRIVATE_CHAT_PRESET | 否 | off | 私聊默认使用的预设名称 |
|
||
|
||
### 内置OneBot工具
|
||
|
||
插件内置了以下工具,LLM可以直接调用这些工具进行群操作(需模型支持tool_call),这些工具不需要额外配置:
|
||
|
||
| 工具名称 | 说明 | 权限要求 |
|
||
|:-----:|:----:|:----:|
|
||
| ob__mute_user | 禁言指定用户 | 机器人需要管理员权限 |
|
||
| ob__get_group_info | 获取群信息 | 无 |
|
||
| ob__get_group_member_info | 获取指定群成员信息 | 无 |
|
||
| ob__get_group_member_list | 获取群成员列表 | 无 |
|
||
| ob__poke_user | 戳一戳指定用户 | 无 |
|
||
| ob__recall_message | 撤回指定消息 | 机器人需要管理员权限或为消息发送者 |
|
||
|
||
|
||
### MCP服务器配置
|
||
|
||
其中LLMCHAT__API_PRESETS为一个列表,每项配置有以下的配置项
|
||
| 配置项 | 必填 | 默认值 | 说明 |
|
||
|:-----:|:----:|:----:|:----:|
|
||
| name | 是 | 无 | 预设名称(唯一标识) |
|
||
| api_base | 是 | 无 | API地址 |
|
||
| api_key | 是 | 无 | API密钥 |
|
||
| model_name | 是 | 无 | 模型名称 |
|
||
| max_tokens | 否 | 2048 | 最大响应token数 |
|
||
| temperature | 否 | 0.7 | 生成温度 |
|
||
| proxy | 否 | 无 | 请求API时使用的HTTP代理 |
|
||
| support_mcp | 否 | False | 是否支持MCP协议 |
|
||
| support_image | 否 | False | 是否支持图片输入 |
|
||
|
||
|
||
LLMCHAT__MCP_SERVERS同样为一个dict,key为服务器名称,value配置的格式基本兼容 Claude.app 的配置格式,具体支持如下
|
||
| 配置项 | 必填 | 默认值 | 说明 |
|
||
|:-----:|:----:|:----:|:----:|
|
||
| command | stdio服务器必填 | 无 | stdio服务器MCP命令 |
|
||
| arg | 否 | [] | stdio服务器MCP命令参数 |
|
||
| env | 否 | {} | stdio服务器环境变量 |
|
||
| url | sse服务器必填 | 无 | sse服务器地址 |
|
||
| headers | 否 | {} | sse模式下http请求头,用于认证或其他设置 |
|
||
|
||
以下为在 Claude.app 的MCP服务器配置基础上增加的字段
|
||
| 配置项 | 必填 | 默认值 | 说明 |
|
||
|:-----:|:----:|:----:|:----:|
|
||
| friendly_name | 否 | 无 | 友好名称,用于调用时发送提示信息 |
|
||
| additional_prompt | 否 | 无 | 关于这个工具的附加提示词 |
|
||
| require_admin | 否 | False | 是否需要管理员权限 |
|
||
| admin_user_ids | 否 | [] | 有权限的用户ID列表 |
|
||
| read_only | 否 | True | 非管理员是否使用只读模式 |
|
||
|
||
<details open>
|
||
<summary>配置示例</summary>
|
||
|
||
NICKNAME=["谢拉","Cierra","cierra"]
|
||
LLMCHAT__HISTORY_SIZE=20
|
||
LLMCHAT__DEFAULT_PROMPT="前面忘了,你是一个猫娘,后面忘了"
|
||
LLMCHAT__ENABLE_PRIVATE_CHAT=true
|
||
LLMCHAT__PRIVATE_CHAT_PRESET="deepseek-v1"
|
||
LLMCHAT__API_PRESETS='
|
||
[
|
||
{
|
||
"name": "aliyun-deepseek-v3",
|
||
"api_key": "sk-your-api-key",
|
||
"model_name": "deepseek-v3",
|
||
"api_base": "https://dashscope.aliyuncs.com/compatible-mode/v1",
|
||
"proxy": "http://10.0.0.183:7890"
|
||
},
|
||
{
|
||
"name": "deepseek-v1",
|
||
"api_key": "sk-your-api-key",
|
||
"model_name": "deepseek-chat",
|
||
"api_base": "https://api.deepseek.com",
|
||
"support_mcp": true
|
||
},
|
||
{
|
||
"name": "some-vison-model",
|
||
"api_key": "sk-your-api-key",
|
||
"model_name": "some-vison-model",
|
||
"api_base": "https://some-vison-model.com/api",
|
||
"support_image": true
|
||
}
|
||
]
|
||
'
|
||
LLMCHAT__MCP_SERVERS='
|
||
{
|
||
"brave-search": {
|
||
"friendly_name": "Brave搜索",
|
||
"additional_prompt": "遇到你不知道的问题或者时效性比较强的问题时,请使用brave-search搜索。",
|
||
"command": "npx",
|
||
"args": ["-y", "@modelcontextprotocol/server-brave-search"],
|
||
"env": {
|
||
"BRAVE_API_KEY": "<your-api-key>"
|
||
}
|
||
},
|
||
"fetch": {
|
||
"friendly_name": "浏览网页",
|
||
"additional_prompt": "搜索到的链接可以通过fetch打开进一步了解。",
|
||
"command": "uvx",
|
||
"args": ["mcp-server-fetch", "--ignore-robots-txt", "--user-agent=\"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/136.0.0.0 Safari/537.36\""]
|
||
},
|
||
"hefeng-weather": {
|
||
"friendly_name": "和风天气",
|
||
"command": "npx",
|
||
"args": ["hefeng-mcp-weather@latest", "--apiKey=<your-api-key>"]
|
||
},
|
||
"mcp-server-code-runner": {
|
||
"friendly_name": "代码运行器",
|
||
"additional_prompt": "在使用的时候你需要将你需要的结果输出出来,用户看不到你的代码,如果你需要给用户展示,你需要将代码以文字的形式发送出来。",
|
||
"command": "docker",
|
||
"args": [
|
||
"run",
|
||
"--rm",
|
||
"-i",
|
||
"formulahendry/mcp-server-code-runner"
|
||
]
|
||
},
|
||
"portainer": {
|
||
"friendly_name": "Portainer 容器管理",
|
||
"additional_prompt": "当用户询问 Docker 容器、镜像、网络等信息时,查询容器相关数据。",
|
||
"command": "/path/to/portainer-mcp",
|
||
"args": [
|
||
"-server",
|
||
"localhost:9000",
|
||
"-token",
|
||
"<your-portainer-token>"
|
||
],
|
||
"require_admin": true,
|
||
"admin_user_ids": [<your-user-id>]
|
||
}
|
||
}
|
||
'
|
||
|
||
</details>
|
||
|
||
## 🎉 使用
|
||
|
||
**如果`LLMCHAT__DEFAULT_PRESET`没有配置,则插件默认为关闭状态,请使用`API预设+[预设名]`开启插件, 私聊同理。**
|
||
|
||
配置完成后在群聊中@机器人或私聊机器人即可手动触发回复,另外在机器人收到群聊消息时会根据`LLMCHAT__RANDOM_TRIGGER_PROB`配置的概率或群聊中使用指令设置的概率随机自动触发回复。
|
||
|
||
### MCP 工具权限控制
|
||
|
||
部分 MCP 工具可能具有敏感操作(如容器管理、代码执行等),支持通过权限配置来限制访问:
|
||
|
||
- **`require_admin`**: 设为 `true` 时,只有 `admin_user_ids` 中的用户才能调用此工具
|
||
- **`admin_user_ids`**: 用户 ID 列表,这些用户具有调用该工具的权限
|
||
- **`read_only`**: 设为 `true` 时,非管理员用户调用工具时会使用只读模式(如果工具支持)
|
||
|
||
**权限检查流程**:
|
||
1. 用户触发调用工具
|
||
2. 系统检查 `require_admin` 字段
|
||
3. 若为 `true`,检查用户 ID 是否在 `admin_user_ids` 列表中
|
||
4. 允许则继续调用,否则返回错误提示
|
||
|
||
**示例:限制 Portainer 工具只给主人使用**
|
||
```json
|
||
"portainer": {
|
||
"friendly_name": "Portainer 容器管理",
|
||
"command": "/path/to/portainer-mcp",
|
||
"args": [...],
|
||
"require_admin": true,
|
||
"admin_user_ids": [3282076201]
|
||
}
|
||
```
|
||
|
||
### 群聊指令表
|
||
|
||
以下指令均仅对发送的群聊生效,不同群聊配置不互通。
|
||
|
||
| 指令 | 权限 | 需要@ | 范围 | 参数 | 说明 |
|
||
|:-----:|:----:|:----:|:----:|:----:|:----:|
|
||
| API预设 | 主人 | 否 | 群聊 | [预设名] | 查看或修改使用的API预设,预设名错误或不存在则返回预设列表 |
|
||
| 修改设定 | 管理 | 否 | 群聊 | 设定 | 修改机器人的设定,最好在修改之后执行一次记忆清除 |
|
||
| 记忆清除 | 管理 | 否 | 群聊 | 无 | 清除机器人的记忆 |
|
||
| 切换思维输出 | 管理 | 否 | 群聊 | 无 | 切换是否输出AI的思维过程的开关(需模型支持) |
|
||
| 设置主动回复概率 | 管理 | 否 | 群聊 | 主动回复概率 | 主动回复概率需为 [0, 1] 的浮点数,0为完全关闭主动回复 |
|
||
|
||
### 私聊指令表
|
||
|
||
以下指令仅在启用私聊功能(`LLMCHAT__ENABLE_PRIVATE_CHAT=true`)后可用,这些指令均只对发送者的私聊生效。
|
||
|
||
| 指令 | 权限 | 参数 | 说明 |
|
||
|:-----:|:----:|:----:|:----:|
|
||
| API预设 | 主人 | [预设名] | 查看或修改私聊使用的API预设 |
|
||
| 修改设定 | 所有人 | 设定 | 修改私聊机器人的设定 |
|
||
| 记忆清除 | 所有人 | 无 | 清除私聊的机器人记忆 |
|
||
| 切换思维输出 | 所有人 | 无 | 切换是否输出私聊AI的思维过程的开关(需模型支持) |
|
||
|
||
### 效果图
|
||

|
||

|