登录
下载
Skill UI
浏览并发现
7568+
精选技能
全部
编程开发
人工智能
设计创意
产品商业
数据科学
市场营销
职场通用
效率工具
硬件工程
语言学习
搜索
推理服务
,共找到
13
条记录
默认排序
最新上传
最多下载
推理延迟分析器
inference-latency-profiler
jeremylongshore/claude-code-plugins-plus-skills
208
本技能自动处理推理延迟分析器相关任务,在 ML 部署场景中提供模型服务、MLOps 管道、监控和生产优化等按步骤指导,生成生产级代码并校验输出标准,助力快速完成推理性能调优。
查看详情
Modal 无服务器 GPU 平台
modal-serverless-gpu
Orchestra-Research/AI-Research-SKILLs
226
Modal 无服务器 GPU 平台提供按秒计费的按需 GPU 访问,从 T4 到 H200,可快速部署模型 API、执行批处理作业并跳过基础设施运维,适合原型验证与推理训练任务。
查看详情
Onnx转换部署指南
onnx-converter
jeremylongshore/claude-code-plugins-plus-skills
113
在 ML 部署场景下自动提供 onnx 转换器的服务指导,涵盖推理、管道、监控与优化,并产出可投入生产的代码与配置。
查看详情
预测监控助手
prediction-monitor
jeremylongshore/claude-code-plugins-plus-skills
240
预测监控助手自动处理机器学习部署中的监控任务,提供逐步指南、最佳实践、生产级代码配置和验证,确保服务与推理流程稳定可靠。
查看详情
SGLang 结构化推理服务
sglang
Orchestra-Research/AI-Research-SKILLs
475
SGLang 是面向 LLM/VLM 的高性能服务框架,采用 RadixAttention 前缀缓存实现 JSON/正则/语法结构化输出、函数调用型代理流程,并在多 GPU 生产环境中比 vLLM 快 5 倍。
查看详情
流式推理部署
streaming-inference-setup
jeremylongshore/claude-code-plugins-plus-skills
462
在询问流式推理架构或实施方案时,自动提供模型服务、MLOps、监控与生产就绪配置的部署流程指导。
查看详情
TensorFlow 服务部署
tensorflow-serving-setup
jeremylongshore/claude-code-plugins-plus-skills
314
提供 TensorFlow Serving 部署的自动化指导,涵盖模型服务、监控与生产优化,生成规范化配置并校验输出,适用于需要快速上线的 ML 推理场景。
查看详情
Torchserve 配置生成器
torchserve-config-generator
jeremylongshore/claude-code-plugins-plus-skills
258
自动生成 TorchServe 部署配置,提供模型服务、MLOps 流水线、推理与生产监控的实践指导,帮助保障机器学习部署的规范性与可靠性。
查看详情
Triton 推理配置
triton-inference-config
jeremylongshore/claude-code-plugins-plus-skills
181
自动提供 Triton 推理配置指导,针对模型服务、MLOps 管道、监控与生产环境优化,生成符合业界最佳实践的配置与代码。
查看详情
Modal 云端GPU平台
modal
K-Dense-AI/claude-scientific-skills
156
Modal 提供云端无服务器 Python 运行环境,按需调度 GPU、持久卷、Web 接口等,方便部署模型、推理服务和批处理作业,不用写 Dockerfile。
查看详情
OpenPI 微调与推理
fine-tuning-serving-openpi
Orchestra-Research/AI-Research-SKILLs
387
涵盖 OpenPI pi0 系列模型(pi0、pi0-fast、pi0.5)在机器人操控任务上的微调与推理,提供从配置、数据映射、归一化统计到 JAX/PyTorch 训练、检查点转换以及 WebSocket 策略推理服务的完整流程,适用于 ALOHA、DROID、LIBERO 等评估场景。
查看详情
Modal 云端GPU平台
modal
K-Dense-AI/scientific-agent-skills
135
Modal 提供云端无服务器 Python 运行环境,按需调度 GPU、持久卷、Web 接口等,方便部署模型、推理服务和批处理作业,不用写 Dockerfile。
查看详情
1
2
下一页
语言
简体中文
English