登录
下载
Skill UI
浏览并发现
6011+
精选技能
全部
编程开发
人工智能
设计创意
产品商业
数据科学
市场营销
职场通用
效率工具
硬件工程
语言学习
搜索
ZAT
,共找到
57
条记录
默认排序
最新上传
最多下载
Llama.cpp CPU 推理
llama-cpp
Orchestra-Research/AI-Research-SKILLs
382
使用 llama.cpp 可在 CPU、Apple Silicon 以及 AMD/Intel GPU 等非 NVIDIA 环境上本地运行 LLM 推理,适合边缘设备和 CUDA 不可用的场景,通过 GGUF 量化实现更低内存与更快速度。
查看详情
Llama 工厂微调指南
llama-factory
Orchestra-Research/AI-Research-SKILLs
378
基于 LLaMA-Factory,提供网页版无代码操作、QLoRA/LoRA 优化、多模态能力等大语言模型微调实战指导与参考资料,帮助开发者快速实践与调试。
查看详情
大模型提示优化
llm-application-dev-prompt-optimize
sickn33/antigravity-awesome-skills
108
面向提示工程专家,提供宪法式 AI、链式思维、模型定制等高级提示优化方法,提升准确率、降低幻觉并节约令牌成本,助力生成生产级提示。
查看详情
企业级 Miles 强化学习
miles-rl-training
Orchestra-Research/AI-Research-SKILLs
258
提供 miles 框架下大规模 MoE 模型的强化学习训练指导,涵盖 FP8/INT4 低精度训练、训练推理对齐、推测式 RL 提速策略以及面向企业级部署的稳定性实践。
查看详情
Mistral SDK 实践模式
mistral-sdk-patterns
jeremylongshore/claude-code-plugins-plus-skills
267
面向 TypeScript 与 Python 的 Mistral SDK 生产级模式,涵盖客户端初始化、对话、流式输出、函数调用、向量化及常见错误处理,适用于集成改造与团队标准化。
查看详情
模型量化部署助手
model-quantization-tool
jeremylongshore/claude-code-plugins-plus-skills
222
自动化提供模型量化部署的指导,涵盖工具使用、最佳实践以及面向推理、MLops 与监控的生产准备流程。
查看详情
模型注册管理器
model-registry-manager
jeremylongshore/claude-code-plugins-plus-skills
162
在机器学习部署中自动响应与模型注册管理相关的请求,帮助搭建模型服务、MLOps 流水线、监控与生产优化。
查看详情
Onnx转换部署指南
onnx-converter
jeremylongshore/claude-code-plugins-plus-skills
113
在 ML 部署场景下自动提供 onnx 转换器的服务指导,涵盖推理、管道、监控与优化,并产出可投入生产的代码与配置。
查看详情
OpenEvidence 企业角色权限
openevidence-enterprise-rbac
jeremylongshore/claude-code-plugins-plus-skills
454
指导在 OpenEvidence 企业版中搭建临床 AI 应用的 SSO、基于角色的访问控制与组织管理,涵盖角色定义、SAML/OIDC 集成、权限中间件、组织多租户配置以及安全会话策略。
查看详情
OpenRouter 上下文优化
openrouter-context-optimization
jeremylongshore/claude-code-plugins-plus-skills
187
指导用户检查必备条件、参考示例并调整配置,以便在 OpenRouter 集成中高效利用上下文窗口、控制令牌消耗并保持生产环境监控。
查看详情
OpenRouter 团队部署
openrouter-team-setup
jeremylongshore/claude-code-plugins-plus-skills
347
为团队部署 OpenRouter,配置多用户访问、RBAC 与部门计费并跟踪使用情况,适合组织内部共享能力与管理员工接入。
查看详情
Flash Attention优化
optimizing-attention-flash
Orchestra-Research/AI-Research-SKILLs
169
通过 Flash Attention 加速 Transformer 关注机制,可提供 2-4 倍速度提升和 10-20 倍内存节省,适用于 PyTorch 原生、flash-attn 库、H100 FP8 和滑动窗口等长上下文模型,解决显存瓶颈并提速推理。
查看详情
上一页
1
2
3
4
5
下一页
语言
简体中文
English