登录
下载
Skill UI
浏览并发现
6170+
精选技能
全部
编程开发
人工智能
设计创意
产品商业
数据科学
市场营销
职场通用
效率工具
硬件工程
语言学习
搜索
ZAT
,共找到
500
条记录
默认排序
最新上传
最多下载
Next.js 应用路由专家
nextjs-developer
Jeffallan/claude-skills
140
指导构建 Next.js 14+ App Router 应用,聚焦服务端组件、Server Actions、基于 metadata 的 SEO、next/image/next/font 优化、流式 SSR,并确保 Vercel 或自托管部署下的高性能体验。
查看详情
Next.js 服务端错误调试
nextjs-server-side-error-debugging
blader/Claudeception
157
通过检查终端日志、补充 try-catch、查看各类托管平台日志,并排查环境变量、数据库连接、导入或序列化问题,帮助定位 Next.js 服务端(getServerSideProps/getStaticProps/API 路由)的错误。
查看详情
Obsidian 成本调优
obsidian-cost-tuning
jeremylongshore/claude-code-plugins-plus-skills
411
通过分析库大小、排除大型文件、缓存插件 API、选择合适同步套餐并精简 Publish 内容,降低 Obsidian 订阅、存储与外部服务费用,让笔记流程更高效。
查看详情
Obsidian 插件性能调优
obsidian-performance-tuning
jeremylongshore/claude-code-plugins-plus-skills
96
通过性能剖析、懒初始化、分块文件处理和事件/界面优化,使大型 Obsidian 插件在大数据量下依然流畅、启动快速、内存受控。
查看详情
Onnx转换部署指南
onnx-converter
jeremylongshore/claude-code-plugins-plus-skills
113
在 ML 部署场景下自动提供 onnx 转换器的服务指导,涵盖推理、管道、监控与优化,并产出可投入生产的代码与配置。
查看详情
OpenEvidence API成本调优
openevidence-cost-tuning
jeremylongshore/claude-code-plugins-plus-skills
128
通过查询跟踪、分级配额、DeepConsult 调度和成本报告,实现 OpenEvidence API 使用的预算控制与效率优化。
查看详情
OpenEvidence 企业角色权限
openevidence-enterprise-rbac
jeremylongshore/claude-code-plugins-plus-skills
454
指导在 OpenEvidence 企业版中搭建临床 AI 应用的 SSO、基于角色的访问控制与组织管理,涵盖角色定义、SAML/OIDC 集成、权限中间件、组织多租户配置以及安全会话策略。
查看详情
OpenEvidence 安全规范
openevidence-security-basics
jeremylongshore/claude-code-plugins-plus-skills
99
为 OpenEvidence 集成提供 HIPAA 合规的安全流程,涵盖凭证管理、PHI 清洗、审计记录、Webhook 验签与数据保留策略,适用于上线前的安全检查与部署准备。
查看详情
OpenRouter 上下文优化
openrouter-context-optimization
jeremylongshore/claude-code-plugins-plus-skills
187
指导用户检查必备条件、参考示例并调整配置,以便在 OpenRouter 集成中高效利用上下文窗口、控制令牌消耗并保持生产环境监控。
查看详情
OpenRouter SDK 常用模式
openrouter-sdk-patterns
jeremylongshore/claude-code-plugins-plus-skills
206
提供 OpenRouter SDK 的常用客户端初始化、错误处理、重试和配置管理模式,适用于 Python/Node.js 生产环境,便于标准化集成与监控。
查看详情
OpenRouter 团队部署
openrouter-team-setup
jeremylongshore/claude-code-plugins-plus-skills
347
为团队部署 OpenRouter,配置多用户访问、RBAC 与部门计费并跟踪使用情况,适合组织内部共享能力与管理员工接入。
查看详情
Flash Attention优化
optimizing-attention-flash
Orchestra-Research/AI-Research-SKILLs
399
通过 Flash Attention 加速 Transformer 关注机制,可提供 2-4 倍速度提升和 10-20 倍内存节省,适用于 PyTorch 原生、flash-attn 库、H100 FP8 和滑动窗口等长上下文模型,解决显存瓶颈并提速推理。
查看详情
上一页
1
2
3
...
16
17
18
19
20
21
22
...
40
41
42
下一页
语言
简体中文
English