Show HN: Mcp2cli – 一个 CLI 搞定所有 API,比原生 MCP 节省 96-99% 的令牌
在 AI 代理和大型语言模型(LLM)的应用中,Model Context Protocol (MCP) 作为一种标准协议,允许模型动态调用外部工具和服务,但传统实现方式存在显著的令牌浪费问题。每次交互时,MCP 服务器都会将完整的工具模式(schemas)注入上下文,即使模型未使用这些工具,也会消耗大量令牌。例如,一个包含 30 个工具的服务器,每轮交互可能浪费约 3,600 个令牌;在 25 轮交互中,若有 120 个工具,仅模式部分就可能累积 362,000 个令牌,这不仅增加成本,还限制了上下文窗口的有效利用。
Mcp2cli 应运而生,它是一款创新的命令行工具,旨在解决这一痛点。其核心功能是在运行时将任何 MCP 服务器或 OpenAPI 规范转换为 CLI,无需代码生成,从而大幅减少令牌开销。根据官方数据,它能节省 96-99% 原本浪费在工具模式上的令牌,这对于依赖频繁 API 调用的 AI 应用来说,意味着更低的成本和更高的效率。
核心优势与工作原理
Mcp2cli 通过动态解析 API 规范,在需要时才暴露工具接口,避免了传统 MCP 中预先加载所有模式的冗余。它支持多种模式:
- MCP HTTP/SSE 模式:连接远程 MCP 服务器,例如
mcp2cli --mcp https://mcp.example.com/sse --list列出可用工具。 - MCP stdio 模式:与本地 MCP 服务器进程交互,如
mcp2cli --mcp-stdio "npx @modelcontextprotocol/server-filesystem /tmp" read-file --path /tmp/hello.txt。 - OpenAPI 模式:直接基于 OpenAPI 规范调用 REST API,例如
mcp2cli --spec https://petstore3.swagger.io/api/v3/openapi.json list-pets --status available。
工具还提供输出控制选项,如 JSON 美化、原始响应和 TOON 输出(一种针对 LLM 优化的令牌高效编码,可减少 40-60% 的令牌使用),进一步优化 AI 代理的交互。
AI 代理技能集成
Mcp2cli 附带一个可安装的技能模块,专为 AI 编码代理(如 Claude Code、Cursor、Codex)设计。通过 npx skills add knowsuchagency/mcp2cli --skill mcp2cli 安装后,代理能自动发现和调用 MCP 服务器或 OpenAPI 端点,甚至从 API 生成新技能。这简化了开发流程,提升了代理的自动化能力。
行业背景与意义
在 AI 行业快速发展的背景下,令牌效率成为关键考量。随着模型上下文窗口扩大和 API 调用增多,无效令牌消耗会拖慢响应速度并增加云服务成本。Mcp2cli 的推出,反映了开发者对优化资源利用的迫切需求。它不仅是技术工具,更是降低 AI 应用门槛、促进更智能代理生态的催化剂。通过减少令牌浪费,开发者可以构建更复杂、响应更快的 AI 系统,同时控制开销。
使用场景与展望
Mcp2cli 适用于多种场景:
- AI 代理开发:帮助代理高效调用外部 API,提升任务执行能力。
- API 测试与集成:作为轻量级 CLI 工具,快速验证和操作 API。
- 教育和原型设计:降低学习成本,加速概念验证。
未来,随着 MCP 和 OpenAPI 标准的普及,此类优化工具可能成为 AI 开发栈的标准组件,推动更可持续的 AI 应用发展。
总之,Mcp2cli 以其高效的令牌节省和灵活的集成能力,为 AI 开发者提供了实用解决方案,有望在提升代理智能的同时,优化资源分配。