登录
下载
Skill UI
浏览并发现
7129+
精选技能
全部
编程开发
人工智能
设计创意
产品商业
数据科学
市场营销
职场通用
效率工具
硬件工程
语言学习
搜索
速度
,共找到
10
条记录
默认排序
最新上传
最多下载
AWQ 激活感知权重量化
awq-quantization
Orchestra-Research/AI-Research-SKILLs
353
AWQ 利用激活感知权重保护技术,将 7B-70B 模型压缩到 4-bit,在受限显存上保持精度并提升近 3 倍推理速度,可配合 vLLM、Marlin 等加速后端部署大模型。
查看详情
Deepgram 性能调优指南
deepgram-performance-tuning
jeremylongshore/claude-code-plugins-plus-skills
294
针对 Deepgram 转录,指引如何做音频预处理、连接池、模型选择、流式传输、并发控制与缓存策略,从而提升速度、降低延迟,适用于高负载语音管道。
查看详情
Kling AI 视频模型指南
klingai-model-catalog
jeremylongshore/claude-code-plugins-plus-skills
96
指导用户了解 Kling AI 的视频生成模型、比较功能、结合质量/速度/成本的取舍,并提供测试与模型推荐的步骤,帮助选出适合特定场景的方案。
查看详情
KlingAI 性能调优
klingai-performance-tuning
jeremylongshore/claude-code-plugins-plus-skills
370
通过基准测试、识别瓶颈、部署优化、再测比对等流程提升 Kling AI 的速度、质量与成本效率,帮助用户在实践中取得平衡的性能提升。
查看详情
CPU/边缘本地大模型推理
llama-cpp
Orchestra-Research/AI-Research-SKILLs
240
llama.cpp是一个纯C/C++编写的轻量级推理框架,专为在资源受限的设备上运行大型语言模型(LLM)而设计。它特别适用于没有高性能NVIDIA GPU(CUDA)的场景,非常适合Apple Silicon、AMD/Intel GPU以及边缘计算设备。通过支持GGUF量化,可以实现内存占用和推理速度的显著优化,支持本地跨平台部署。
查看详情
LLM模型剪枝实用指南
model-pruning
Orchestra-Research/AI-Research-SKILLs
439
通过 Wanda、SparseGPT 与 N:M 结构化剪枝,快速压缩大语言模型,提升稀疏度与推理速度,无需再训练即可部署在移动或边缘硬件。
查看详情
Perplexity 性能调优
perplexity-performance-tuning
jeremylongshore/claude-code-plugins-plus-skills
211
通过挑选合适模型、缓存查询哈希、为长研究启用流式输出以及对请求进行批处理和去重,提升 Perplexity Sonar API 在研究和事实核查类场景下的响应速度和成本效率。
查看详情
Retell AI 性能调优指南
retellai-performance-tuning
jeremylongshore/claude-code-plugins-plus-skills
440
通过优化 LLM 提示、代理配置、WebSocket 连接池以及缓存与分析,提升 Retell AI 语音代理在高负载下的响应速度与稳定性。
查看详情
推测式解码加速
speculative-decoding
Orchestra-Research/AI-Research-SKILLs
467
通过推测式解码、Medusa 多头和前瞻解码等技术,在有限算力上加速聊天机器人、代码助手等实时任务,达到 1.5-3.6 倍速度提升并保持目标模型质量。
查看详情
高性能强化学习框架
pufferlib
K-Dense-AI/claude-scientific-skills
205
PufferLib是一个高性能的强化学习框架,专为大规模、高速的RL训练和仿真而设计。它通过优化的向量化和原生多智能体支持,实现了每秒数百万步的训练速度,极大地提升了RL研究和应用效率,适用于单智能体和多智能体环境的构建与训练。
查看详情
1
语言
简体中文
English