登录
下载
Skill UI
浏览并发现
9118+
精选技能
全部
编程开发
人工智能
设计创意
产品商业
数据科学
市场营销
职场通用
效率工具
硬件工程
语言学习
搜索
推理
,共找到
69
条记录
默认排序
最新上传
最多下载
Groq应用参考架构设计
groq-reference-architecture
jeremylongshore/claude-code-plugins-plus-skills
278
本指南提供了一套基于Groq LPU推理API的生产级参考架构蓝图。它系统地展示了如何根据延迟、质量或成本需求实现模型路由、流式数据管道,并构建了多提供商故障转移机制(如Groq到OpenAI备份)。适用于设计和优化复杂的、高弹性的AI应用系统。
查看详情
GroqCloud 自动化套件
groqcloud-automation
ComposioHQ/awesome-claude-skills
302
GroqCloud 自动化通过 Composio 调度高性能 API,涵盖推理、聊天输出、音频翻译与 TTS 语音选择,适合构建生产级 AI 流程。
查看详情
Hugging Face云工作流执行
hugging-face-jobs
sickn33/antigravity-awesome-skills
382
用于在Hugging Face的托管云基础设施上执行复杂的计算工作负载。无需本地环境配置,支持使用云端的CPU、GPU或TPU资源。适用于大规模数据处理、批处理推理、可复现的模型训练和周期性自动化任务,并将结果持久化到Hugging Face Hub。
查看详情
推理延迟分析器
inference-latency-profiler
jeremylongshore/claude-code-plugins-plus-skills
208
本技能自动处理推理延迟分析器相关任务,在 ML 部署场景中提供模型服务、MLOps 管道、监控和生产优化等按步骤指导,生成生产级代码并校验输出标准,助力快速完成推理性能调优。
查看详情
知识蒸馏:大模型压缩
knowledge-distillation
Orchestra-Research/AI-Research-SKILLs
337
知识蒸馏(KD)是一种核心的AI模型压缩技术。它旨在将性能强大的大型语言模型(Teacher)的知识,高效地转移给更小、更易于部署的学生模型(Student)。这使得开发者能够在不损失关键性能的前提下,大幅降低推理成本,实现将前沿大模型能力落地到实际应用场景。
查看详情
Lindy AI自动化工作流迁移指南
lindy-migration-deep-dive
jeremylongshore/claude-code-plugins-plus-skills
386
这是一份全面的指南,详细介绍了如何将复杂的、依赖规则的自动化工作流(源自Zapier、Make、n8n等平台)平滑迁移到Lindy AI。内容指导用户如何将传统的硬性条件逻辑,用具备推理能力的AI智能体进行重设计和升级,确保过渡过程既平稳又智能化。
查看详情
CPU/边缘本地大模型推理
llama-cpp
Orchestra-Research/AI-Research-SKILLs
249
llama.cpp是一个纯C/C++编写的轻量级推理框架,专为在资源受限的设备上运行大型语言模型(LLM)而设计。它特别适用于没有高性能NVIDIA GPU(CUDA)的场景,非常适合Apple Silicon、AMD/Intel GPU以及边缘计算设备。通过支持GGUF量化,可以实现内存占用和推理速度的显著优化,支持本地跨平台部署。
查看详情
LLM应用模式与架构
llm-app-patterns
sickn33/antigravity-awesome-skills
283
本技能集提供了一套生产级的LLM应用开发蓝图。它全面覆盖了RAG(检索增强生成)的完整流程,从文档切块到混合检索。此外,书中还详细介绍了ReAct等高级Agent架构模式,帮助开发者构建具备复杂推理和工具使用能力的企业级AI系统。
查看详情
智能体内存系统设计
memory-systems
sickn33/antigravity-awesome-skills
423
本技能专注于设计和构建复杂、分层的AI智能体内存架构。它超越了简单的上下文窗口和向量存储的局限,引入了短期、长期和基于图谱的内存系统。使用此技能可确保智能体在会话间保持记忆持久性,维护实体一致性,并在累积的知识库上进行高级、关系驱动的推理,包括时序知识追踪。
查看详情
Modal 无服务器 GPU 平台
modal-serverless-gpu
Orchestra-Research/AI-Research-SKILLs
226
Modal 无服务器 GPU 平台提供按秒计费的按需 GPU 访问,从 T4 到 H200,可快速部署模型 API、执行批处理作业并跳过基础设施运维,适合原型验证与推理训练任务。
查看详情
模型漂移检测
model-drift-detector
jeremylongshore/claude-code-plugins-plus-skills
198
自动化提供模型漂移检测的部署建议,包含实践规范、可用的生产代码与校验措施,帮助你监控推理系统并保持稳定运行。
查看详情
LLM模型剪枝实用指南
model-pruning
Orchestra-Research/AI-Research-SKILLs
437
通过 Wanda、SparseGPT 与 N:M 结构化剪枝,快速压缩大语言模型,提升稀疏度与推理速度,无需再训练即可部署在移动或边缘硬件。
查看详情
上一页
1
2
3
4
5
6
下一页
语言
简体中文
English