登录
下载
Skill UI
浏览并发现
9118+
精选技能
全部
编程开发
人工智能
设计创意
产品商业
数据科学
市场营销
职场通用
效率工具
硬件工程
语言学习
搜索
推理
,共找到
116
条记录
默认排序
最新上传
最多下载
CoreWeave GPU性能调优指南
coreweave-performance-tuning
jeremylongshore/claude-code-plugins-plus-skills
494
本指南提供了在CoreWeave平台上优化GPU推理性能的专家策略。内容涵盖了根据不同工作负载(如LLM推理、图像生成、模型训练)选择最佳GPU、使用vLLM实现连续批处理优化,以及基于指标的HPA自动扩缩容配置。帮助用户最大化GPU利用率,降低推理延迟,提升AI模型部署效率。
查看详情
CoreWeave生产部署检查清单
coreweave-prod-checklist
jeremylongshore/claude-code-plugins-plus-skills
232
这份清单用于指导将GPU工作负载(如推理服务或模型训练)从开发环境迁移到CoreWeave生产环境的全部关键步骤。它系统地覆盖了自动伸缩、资源配置、安全策略、持久化存储、性能监控和故障回滚等MLOps及DevOps最佳实践。
查看详情
核心云资源配额与限流管理
coreweave-rate-limits
jeremylongshore/claude-code-plugins-plus-skills
438
本技能用于管理CoreWeave云服务的GPU配额和速率限制。它提供了使用`kubectl`检查资源配额的方法,并演示了使用Python `asyncio`实现推理请求队列,确保在高并发环境下资源分配的稳定性和效率。
查看详情
CoreWeave GPU云参考架构
coreweave-reference-architecture
jeremylongshore/claude-code-plugins-plus-skills
347
本参考架构提供了一套在CoreWeave GPU云上部署机器学习模型的完整蓝图。它详细描述了多模型服务(如vLLM, TGI)的Kubernetes部署结构、共享持久化存储(PVC)以及基于KServe/Knative的自动扩缩容机制。适用于设计鲁棒的MLOps流程、规划高性能多模型推理服务,或建立标准的GPU云部署规范。
查看详情
CoreWeave GPU工作负载模式
coreweave-sdk-patterns
jeremylongshore/claude-code-plugins-plus-skills
395
该SDK提供了一系列生产级的Python模式,用于在CoreWeave平台上管理GPU计算任务。它帮助用户定义GPU资源规格、设置节点亲和性,并生成完整的Kubernetes部署模板。适用于构建稳定可靠的AI推理客户端、管理GPU基础设施或自动化复杂的AI工作流。
查看详情
CoreWeave GPU工作负载事件监控
coreweave-webhooks-events
jeremylongshore/claude-code-plugins-plus-skills
416
该工具通过Webhook机制,实时监控CoreWeave集群的GPU工作负载状态和生命周期事件。它追踪Pod就绪状态、任务完成、存储挂载和节点健康状况,是构建大规模GPU推理和训练任务的自动化扩展、告警及恢复流程的核心组件。
查看详情
家庭安防AI基准测试套件
home-security-ai-benchmark
SharpAI/DeepCamera
379
本套件是一个全面的评估工具,用于基准测试大型语言模型(LLM)和视觉语言模型(VLM)在家庭安防领域的性能。它涵盖了143项测试,覆盖了工具使用、提示注入抵抗性、上下文推理、警报分诊和场景分析等16个关键领域,旨在确保智能家居AI系统的稳健性。
查看详情
LangChain模型推理实战指南
langchain-model-inference
jeremylongshore/claude-code-plugins-plus-skills
181
本技能指南深入介绍了使用LangChain进行生产级、高可靠性的LLM推理。它解决了跨多模型提供商(如Anthropic, OpenAI, Gemini)集成时常见的关键陷阱,包括内容块(content block)的复杂处理、流式传输的精确Token计数、以及结构化输出的稳定性。旨在提供一套版本安全、可扩展的LLM调用方案。
查看详情
Together AI CI/CD 集成测试
together-ci-integration
jeremylongshore/claude-code-plugins-plus-skills
85
本技能提供了一套完整的CI/CD流程,用于自动化测试使用Together AI的OpenAI兼容API的应用程序。它设置了GitHub Actions工作流,确保在每次Pull Request时运行单元测试(模拟推理和嵌入响应),并在合并到main分支时执行完整的集成测试,从而全面验证了模型调用、提示词格式和API连通性。
查看详情
Together AI API 错误处理指南
together-common-errors
jeremylongshore/claude-code-plugins-plus-skills
86
本指南全面收录了在使用 Together AI API时可能遇到的常见错误代码和解决方案。无论是在模型推理、微调数据集处理还是部署过程中,它都能帮助开发者快速定位并解决认证、速率限制、输入验证和计费等各类问题。
查看详情
使用Together AI微调大语言模型
together-core-workflow-a
jeremylongshore/claude-code-plugins-plus-skills
286
这是一个完整的工作流指南,用于指导用户如何使用Together AI API对开源大语言模型(LLMs)进行定制化微调。流程包括:准备结构化的训练数据(JSONL格式)、上传文件、创建微调任务、监控训练状态,并最终使用定制的模型进行推理。适用于需要将模型应用于特定业务场景的开发者。
查看详情
Together AI成本调优指南
together-cost-tuning
jeremylongshore/claude-code-plugins-plus-skills
122
本指南提供一套全面的成本优化方案,用于在使用Together AI的OpenAI兼容API时管理和降低支出。内容涵盖推理(inference)、微调(fine-tuning)和模型部署等多个环节的最佳实践。用户可以学习如何根据需求选择合适的模型规模、利用缓存和批量推理等技术,从而在保证性能的同时,最小化AI运行成本。
查看详情
上一页
1
2
3
...
6
7
8
9
10
下一页
语言
简体中文
English