登录
下载
Skill UI
浏览并发现
6058+
精选技能
全部
编程开发
人工智能
设计创意
产品商业
数据科学
市场营销
职场通用
效率工具
硬件工程
语言学习
搜索
Tor
,共找到
182
条记录
默认排序
最新上传
最多下载
Onnx转换部署指南
onnx-converter
jeremylongshore/claude-code-plugins-plus-skills
113
在 ML 部署场景下自动提供 onnx 转换器的服务指导,涵盖推理、管道、监控与优化,并产出可投入生产的代码与配置。
查看详情
OpenEvidence 可观测性配置
openevidence-observability
jeremylongshore/claude-code-plugins-plus-skills
225
为 OpenEvidence 临床 AI 集成部署 Prometheus 指标、OpenTelemetry 链路、结构化日志及 Grafana 面板,持续观测服务健康、延迟、错误、缓存与告警。
查看详情
OpenEvidence 上线准备清单
openevidence-prod-checklist
jeremylongshore/claude-code-plugins-plus-skills
451
系统性上线检查表,覆盖法律合规、安全、基础设施、监控、容错与测试等环节,确保 OpenEvidence 临床 AI 集成符合要求并可核准上线。
查看详情
OpenRouter 合规审查
openrouter-compliance-review
jeremylongshore/claude-code-plugins-plus-skills
426
提供审查 OpenRouter 集成的安全与合规流程,包括前置条件、代码验审、测试与上线监控,便于完成审计与安全评估。
查看详情
OpenRouter 上下文优化
openrouter-context-optimization
jeremylongshore/claude-code-plugins-plus-skills
187
指导用户检查必备条件、参考示例并调整配置,以便在 OpenRouter 集成中高效利用上下文窗口、控制令牌消耗并保持生产环境监控。
查看详情
OpenRouter容错策略
openrouter-fallback-config
jeremylongshore/claude-code-plugins-plus-skills
208
配置 OpenRouter 的模型回退链,遇到主模型异常时自动切换备用模型,保障高可用并配合监控验证集成。
查看详情
OpenRouter 函数调用指南
openrouter-function-calling
jeremylongshore/claude-code-plugins-plus-skills
345
该技能指导如何在 OpenRouter 中构建函数/工具调用流程,适用于 GPT-4、Claude 等支持函数调用的模型,涵盖前置条件、实现步骤、测试验证与监控建议,确保 API 集成稳定生效。
查看详情
OpenRouter 多提供商集成
openrouter-multi-provider
jeremylongshore/claude-code-plugins-plus-skills
85
通过 OpenRouter 统一接口管理多个提供商,比对模型,配置环境,验证 API 连通,并部署监控,适合构建提供商无关的 AI 工作流。
查看详情
OpenRouter 生产就绪清单
openrouter-prod-checklist
jeremylongshore/claude-code-plugins-plus-skills
392
提供部署前 OpenRouter 的安全、监控、错误处理与运营准备检查流程,确保配置、测试与监控到位,适用于上线前的生产验证。
查看详情
OpenRouter 流式响应设置
openrouter-streaming-setup
jeremylongshore/claude-code-plugins-plus-skills
207
该技能指导如何接入 OpenRouter 流式响应,实现实时聊天输出并缩短首令牌时间,涵盖前置条件、配置调整、测试验证和上线监控,适用于支持 SSE 的前端。
查看详情
OpenRouter 使用分析
openrouter-usage-analytics
jeremylongshore/claude-code-plugins-plus-skills
91
实现OpenRouter使用量的跟踪、仪表盘和验证流程,通过具体指标帮助团队优化成本并监控集成情况。
查看详情
Flash Attention优化
optimizing-attention-flash
Orchestra-Research/AI-Research-SKILLs
169
通过 Flash Attention 加速 Transformer 关注机制,可提供 2-4 倍速度提升和 10-20 倍内存节省,适用于 PyTorch 原生、flash-attn 库、H100 FP8 和滑动窗口等长上下文模型,解决显存瓶颈并提速推理。
查看详情
上一页
1
2
3
...
5
6
7
8
9
10
11
...
14
15
16
下一页
语言
简体中文
English