登录
下载
Skill UI
浏览并发现
5146+
精选技能
全部
编程开发
人工智能
设计创意
产品商业
数据科学
市场营销
职场通用
效率工具
硬件工程
语言学习
搜索
加速
,共找到
22
条记录
默认排序
最新上传
最多下载
激活感知权重量化
awq-quantization
Orchestra-Research/AI-Research-SKILLs
151
AWQ 通过激活感知的 4-bit 权重量化,在有限 GPU 内存、使用 vLLM 或 Marlin 内核时,为指令调优或多模态大模型提供约 3 倍推理加速且误差低于 5%。
查看详情
Databricks 性能优化指南
databricks-performance-tuning
jeremylongshore/claude-code-plugins-plus-skills
386
提供 Databricks 集群、Spark 参数与 Delta Lake 表的调优流程,通过集群规模计算、工作负载配置以及 Z-Order、Vacuum 等操作,针对慢作业或查询瓶颈进行加速优化。
查看详情
数据集加载器创建者
dataset-loader-creator
jeremylongshore/claude-code-plugins-plus-skills
155
自动化提供数据集加载器构建指导,涵盖数据准备、训练与调参,配合行业规范校验与可部署代码,加速机器学习训练流程。
查看详情
FAISS 向量相似搜索
faiss
Orchestra-Research/AI-Research-SKILLs
274
FAISS 是 Meta/ Facebook AI 的向量相似性搜索库,支持 Flat、IVF、HNSW 等索引、GPU 加速和亿量级向量检索,适用于高吞吐、低延迟的 k-NN 检索场景。
查看详情
数据库缓存多层架构
implementing-database-caching
jeremylongshore/claude-code-plugins-plus-skills
165
通过 Redis、内存缓存及 CDN 构建多层数据库缓存,减轻数据库负载、加速查询并支持 cache-aside、write-through、read-through 策略,适用于需要数据库性能优化的场景。
查看详情
LangChain性能优化指南
langchain-performance-tuning
jeremylongshore/claude-code-plugins-plus-skills
320
提供基准测试、缓存、批量/异步处理、流式输出及提示/模型优化的实操建议,帮助 LangChain 应用降低延迟、提升吞吐、节省资源,适用于需要加速响应的场景。
查看详情
数据库分区管理
managing-database-partitions
jeremylongshore/claude-code-plugins-plus-skills
427
自动化设计与实施表分区策略,提升超大数据库性能、加速时间序列查询并缩短维护窗口,同时提供分区键选择、SQL 脚本与查询优化建议。
查看详情
LLM模型剪枝优化
model-pruning
Orchestra-Research/AI-Research-SKILLs
104
使用Wanda、SparseGPT和结构/非结构/N:M稀疏剪枝,在不重训情况下将LLM压缩约50%,适配加速卡或边缘设备,减少内存与延迟。
查看详情
GPU 加速训练数据治理
nemo-curator
Orchestra-Research/AI-Research-SKILLs
322
NeMo Curator 通过 GPU 加速处理文本、图像、视频和音频数据,提供模糊/语义去重、质量过滤、PII 与 NSFW 检测等步骤,配合 RAPIDS 多 GPU 集群打造高质量 LLM 训练集。
查看详情
Obsidian 插件本地开发流程
obsidian-local-dev-loop
jeremylongshore/claude-code-plugins-plus-skills
436
为 Obsidian 插件开发搭建热重载 + 监听构建的本地迭代流程,配套测试仓库与配置指引,加速 Node.js/TypeScript 插件调试和验证。
查看详情
OpenRLHF高性能训练
openrlhf-training
Orchestra-Research/AI-Research-SKILLs
344
OpenRLHF 是基于 Ray 与 vLLM 的高性能 RLHF 框架,通过 ZeRO-3 与 GPU 资源共享加速 PPO、GRPO、RLOO 和 DPO 等算法的 7B-70B+ 大模型分布式训练。
查看详情
Flash Attention优化
optimizing-attention-flash
Orchestra-Research/AI-Research-SKILLs
169
通过 Flash Attention 加速 Transformer 关注机制,可提供 2-4 倍速度提升和 10-20 倍内存节省,适用于 PyTorch 原生、flash-attn 库、H100 FP8 和滑动窗口等长上下文模型,解决显存瓶颈并提速推理。
查看详情
1
2
下一页
语言
简体中文
English