登录
下载
Skill UI
浏览并发现
7268+
精选技能
全部
编程开发
人工智能
设计创意
产品商业
数据科学
市场营销
职场通用
效率工具
硬件工程
语言学习
搜索
测试
,共找到
35
条记录
默认排序
最新上传
最多下载
Lindy AI 代理创建流程
lindy-core-workflow-a
jeremylongshore/claude-code-plugins-plus-skills
156
引导式流程帮助定义规格、配置工具、测试响应并准备部署 Lindy AI 代理,适用于构建新代理人格或能力场景。
查看详情
LLM模型评估与性能测试
llm-evaluation
sickn33/antigravity-awesome-skills
356
提供了一套全面的大型语言模型(LLM)评估框架。内容涵盖自动化指标(如BLEU、ROUGE、BERTScore)、人工评估维度以及使用LLM作为裁判的先进方法。适用于系统性地衡量模型性能、对比不同Prompt或模型,确保AI应用的可靠性和可部署性。
查看详情
Mistral迁移深度指南
mistral-migration-deep-dive
jeremylongshore/claude-code-plugins-plus-skills
342
指导团队将 OpenAI 或其他供应商的关键 AI 集成迁移到 Mistral AI,涵盖评估、通用适配器、特性开关渐进发布、模型映射、验证测试与回滚策略。
查看详情
OpenEvidence 上线准备清单
openevidence-prod-checklist
jeremylongshore/claude-code-plugins-plus-skills
451
系统性上线检查表,覆盖法律合规、安全、基础设施、监控、容错与测试等环节,确保 OpenEvidence 临床 AI 集成符合要求并可核准上线。
查看详情
OpenRouter 合规审查
openrouter-compliance-review
jeremylongshore/claude-code-plugins-plus-skills
426
提供审查 OpenRouter 集成的安全与合规流程,包括前置条件、代码验审、测试与上线监控,便于完成审计与安全评估。
查看详情
OpenRouter 函数调用指南
openrouter-function-calling
jeremylongshore/claude-code-plugins-plus-skills
345
该技能指导如何在 OpenRouter 中构建函数/工具调用流程,适用于 GPT-4、Claude 等支持函数调用的模型,涵盖前置条件、实现步骤、测试验证与监控建议,确保 API 集成稳定生效。
查看详情
OpenRouter 模型路由
openrouter-model-routing
jeremylongshore/claude-code-plugins-plus-skills
355
实现 OpenRouter 模型路由,支持 A/B 测试、渐进发布与性能驱动的模型选择,便于在多个环境中优化多模型部署与实验。
查看详情
OpenRouter 生产就绪清单
openrouter-prod-checklist
jeremylongshore/claude-code-plugins-plus-skills
392
提供部署前 OpenRouter 的安全、监控、错误处理与运营准备检查流程,确保配置、测试与监控到位,适用于上线前的生产验证。
查看详情
OpenRouter 流式响应设置
openrouter-streaming-setup
jeremylongshore/claude-code-plugins-plus-skills
207
该技能指导如何接入 OpenRouter 流式响应,实现实时聊天输出并缩短首令牌时间,涵盖前置条件、配置调整、测试验证和上线监控,适用于支持 SSE 的前端。
查看详情
凤凰AI可观测平台
phoenix-observability
Orchestra-Research/AI-Research-SKILLs
264
Phoenix 是开源AI可观测平台,可用于追踪、评估和监控大语言模型应用,支持实验对比、数据集回归测试与实时生产监控,帮助工程团队自托管排查与优化。
查看详情
提示工程专家
prompt-engineer
Jeffallan/claude-skills
244
为大模型设计、优化并评估提示词,涵盖链式思维、少样本、系统人格与结构化输出,配套测试、度量与文档,保障部署的准确性与成本效率。
查看详情
PyTorch模型因果干预
pyvene-interventions
Orchestra-Research/AI-Research-SKILLs
473
pyvene是一个用于在PyTorch模型上执行因果干预的声明式框架。它支持激活打补丁、因果追踪(ROME风格)和交替干预训练等高级实验。适用于需要测试模型因果假设、深入理解模型组件工作机制或确保可复现性的AI研究场景。
查看详情
上一页
1
2
3
下一页
语言
简体中文
English