别再赌 README:这里有真正能用的
Agent Skills
把“能不能装、能不能跑、有没有风险”变成一份可读的测评报告与安装指引。
复制安装命令 / JSON 配置片段 → 重启 Claude Desktop
别瞎试,从测评过的 Agent Skills 开始
以下是通过我们测评体系拿到 S 级,或在清晰度、实用性、输出质量、可维护性和新意这五个维度综合评分较高的技能。
先搞清楚:Agent Skills 与 MCP 是什么关系?
MCP(Model Context Protocol)是一套开放协议,用来约定“Agent 怎么安全地接入外部工具和数据源”。它定义的是消息格式、权限模型和发现机制,更像是“插座标准”。
Agent Skills 则是基于 MCP 的具体实现,也就是一个个可以安装的 MCP Server + 配置。比如文件管理、Git 操作、日志查询、工单系统、内部 API 接入等,都是以 Agent Skill 的形式存在。

找一个真正能用的 Skill,为什么这么耗时?
在 GitHub 搜“Agent Skill”,结果一大页:每个都要点进去读 README、猜兼容性、找安装命令。真正装起来往往要 15–30 分钟,跑不通就等于白忙。更糟的是,你很难在“安装前”判断它值不值得试。
- 选择困难 + 试错成本高光判断“值不值得试”就要翻很久;真装起来 15–30 分钟起步,失败一次就是半小时打水漂。
- 缺少统一评价标准没有一套可对比的维度,只能靠感觉和运气,最后只能“试完才知道”。
- 信息获取成本高英文长文 + 结构混乱的文档很耗注意力;找示例、找命令、找配置很容易漏掉关键一步。
- Stars 不可靠Stars 多不等于好用:可能已废弃、只适配特定环境,甚至根本跑不起来。
开发者为什么选择 MCPxel
我们把“选择 Skill 的脏活累活”前置:聚合信息、整理安装步骤、输出统一评分,让你在安装前就能做判断。



三步获取可信赖的 Agent 技能
从发现到集成,拒绝盲盒式试错。
平台特性
为 Agentic Future 而生。以信任为基石。
DeepSeek V3 测评核心
自动化代码评估引擎,从清晰度、实用性、完整性、可维护性和新颖性 5 个维度打分。
安全风险提示
基于 AI 分析文档和代码模式,在您安装之前提示潜在的安全隐患。
能力搜索
基于结构化数据。即使 README 没写,也能搜到‘可以读取 PDF 发票的工具’。
持续更新追踪
评分基于具体的 GitHub 提交版本。我们致力于让测评报告跟上仓库的重大更新。
标准化度量体系
基于工程标准的 S/A/B/C/D 分级体系,拒绝选择困难症。
开放注册倡议
构建透明、社区驱动的 MCP 生态系统元数据集合。
生态系统正在蓬勃发展
每天都有新的工具出现,也每天都有人踩坑。
已收录技能
持续收录
持续增加中
查找效率
更快
更少试错
测评视角
统一
可对比
常见问题
有问题?我们有答案。
什么是 MCP?
Model Context Protocol (MCP) 是连接 AI 模型与外部数据和工具的标准协议。它允许像 Claude 这样的 Agent 安全地与你的本地文件、数据库和 API 进行交互。
你们如何评分?
我们使用自动化 AI Agent(由 DeepSeek V3 驱动)分析 README、代码结构和文档清晰度。我们会检查安装说明是否清晰、是否遵循安全最佳实践以及维护是否活跃。
是免费的吗?
是的!MCPxel 对浏览与探索完全免费。MVP 阶段我们先采用内部收录 + 自动爬取,暂未开放对外提交入口。
我能提交我的技能吗?
暂未开放对外提交。当前阶段我们优先把“收录→审计→展示→安装指南”跑通,后续再评估开放提交通道。
支持私有仓库吗?
暂时不支持。为了社区的透明度,目前我们仅支持公开的 GitHub 仓库。我们正在研究审计私有仓库的安全方案。
评分多久更新一次?
当仓库有重大更新或应用户请求时,我们会重新评估技能。您也可以在技能详情页手动触发重新审计。
准备好增强你的 Agent 了吗?
浏览合集,按评分挑选并快速安装。

