B
Better Prompts MCP
by @comeonzhj
Better Prompts 是一个 MCP (Model Context Protocol) 服务,用于从文章中萃取理论方法论并存储到知识库中,然后根据用户输入自动检索相关方法论来构建增强的提示词。
Created 9/3/2025
Updated 4 days ago
README
Repository documentation and setup instructions
Better Prompts MCP
一个自动帮助用户从文章中萃取理论、存储到向量数据库、根据用户输入自动从知识库中调用方法论、构建更增强提示词的 MCP 服务。
🌟 功能特性
萃取工具 (extract_methodology)
- 📝 支持文本内容和 URL 链接输入
- 🌐 自动提取网页正文内容
- 🤖 使用 AI 从内容中萃取可操作的方法论
- 💾 支持本地和云端两种存储方式
提示增强工具 (enhance_prompt)
- 🔍 从知识库检索相关方法论(默认前3个)
- ✨ 结合方法论生成增强的提示词
- 📚 提供更专业、更具指导性的提示内容
双模式知识库
- 本地存储: Milvus Lite + Ollama 嵌入模型
- 云端存储: Dify 知识库 API
🚀 快速开始
环境要求
- Python 3.10+
- Claude Desktop (或其他支持 MCP 的客户端)
安装步骤
-
克隆仓库
git clone https://github.com/comeonzhj/better-prompts-mcp.git cd better-prompts-mcp
-
安装依赖
uv venv source .venv/bin/activate # Windows: .venv\Scripts\activate uv pip install -e .
-
配置环境变量
cp env_example.txt .env # 编辑 .env 文件配置您的参数
-
本地存储配置(可选)
# 安装并启动 Ollama curl -fsSL https://ollama.ai/install.sh | sh ollama serve # 安装嵌入模型 ollama pull nomic-embed-text
-
配置 Claude Desktop
编辑
~/Library/Application Support/Claude/claude_desktop_config.json
:{ "mcpServers": { "better_prompts": { "command": "uv", "args": [ "--directory", "/绝对路径/到/better-prompts-mcp", "run", "python", "-m", "mcp_server_better_prompts" ], "env": { "KNOWLEDGE_STORAGE": "local", "LLM_API_BASE": "https://api.openai.com/v1", "LLM_API_KEY": "your_api_key_here", "LLM_MODEL_NAME": "gpt-3.5-turbo" } } } }
-
重启 Claude Desktop
📖 使用方法
萃取方法论
从文本萃取
请帮我萃取以下内容中的方法论:
[粘贴您要萃取的文本内容]
从 URL 萃取
请帮我萃取这个网页中的方法论:
https://example.com/article
增强提示词
请帮我优化这个提示词:
我想写一篇关于产品营销的文案
系统会自动:
- 从知识库检索相关的营销方法论
- 结合方法论生成增强的提示词
- 返回更专业、更具指导性的提示内容
⚙️ 配置说明
环境变量
基础配置
# 知识库存储方式: local/cloud
KNOWLEDGE_STORAGE=local
# 大模型 API 配置
LLM_API_BASE=https://api.openai.com/v1
LLM_API_KEY=your_api_key_here
LLM_MODEL_NAME=gpt-3.5-turbo
云端存储配置(可选)
# 云端调用需要付费版,可自己部署
DIFY_BASE_URL=https://api.dify.ai/v1
DIFY_API_KEY=your_dify_api_key
DIFY_DATASET_ID=your_dataset_id
DIFY_DOCUMENT_ID=your_document_id
🏗️ 技术架构
- MCP 协议: 基于标准 MCP 协议实现
- 向量数据库: Milvus Lite (本地) / Dify API (云端)
- 嵌入模型: Ollama nomic-embed-text
- 内容提取: readabilipy + markdownify
- 大模型: 支持 OpenAI 兼容的 API
🔧 故障排除
常见问题
-
Milvus 向量数据库错误
- 重新安装服务:
uv pip install -e . --force-reinstall
- 重新安装服务:
-
Ollama 连接失败
- 确保服务已启动:
ollama serve
- 确认模型已安装:
ollama list | grep nomic-embed-text
- 确保服务已启动:
-
API 调用失败
- 检查 API 密钥配置
- 确认网络连接正常
🧪 验证安装
运行验证脚本:
python verify_install.py
📁 项目结构
better-prompts-mcp/
├── pyproject.toml # 项目配置
├── env_example.txt # 环境变量示例
├── claude_desktop_config_example.json # Claude 配置示例
├── 使用说明.md # 详细使用说明
├── verify_install.py # 安装验证脚本
└── src/
└── mcp_server_better_prompts/
├── __init__.py
├── __main__.py
└── server.py # 主服务实现
🤝 贡献
欢迎提交 Issues 和 Pull Requests!
📄 许可证
MIT License
🙏 致谢
构造提示词
移步 how-to-prompt查看完整的构造提示词和支持物料。
Quick Setup
Installation guide for this server
Install Package (if required)
uvx better-prompts-mcp
Cursor configuration (mcp.json)
{
"mcpServers": {
"comeonzhj-better-prompts-mcp": {
"command": "uvx",
"args": [
"better-prompts-mcp"
]
}
}
}
Author Servers
Other servers by comeonzhj