登录
下载
Skill UI
浏览并发现
9185+
精选技能
全部
编程开发
人工智能
设计创意
产品商业
数据科学
市场营销
职场通用
效率工具
硬件工程
语言学习
搜索
LMS
,共找到
54
条记录
默认排序
最新上传
最多下载
智能体工具构建指南
agent-tool-builder
sickn33/antigravity-awesome-skills
364
涵盖从 JSON Schema 设计到验证与错误处理的智能体工具构建,强调高质量描述和 MCP 标准以保障 LLM 准确率。
查看详情
Axolotl大模型微调助手
axolotl
Orchestra-Research/AI-Research-SKILLs
392
为 Axolotl 提供大模型微调指导,涵盖 YAML 配置、LoRA/QLoRA、DPO 等优化策略及多模态支持,适用于开发、调试和查阅文档。
查看详情
Axolotl大模型微调助手
axolotl
Orchestra-Research/AI-Research-SKILLs
392
为 Axolotl 提供大模型微调指导,涵盖 YAML 配置、LoRA/QLoRA、DPO 等优化策略及多模态支持,适用于开发、调试和查阅文档。
查看详情
BLIP-2 视觉语言框架
blip-2-vision-language
Orchestra-Research/AI-Research-SKILLs
350
该框架将冻结的图像编码器与大语言模型连接,适用于图像描述、视觉问答、检索与多模态对话,在无需微调的条件下实现零样本推理,并仅训练轻量 Q-Former。
查看详情
领先计算机视觉架构师
computer-vision-expert
sickn33/antigravity-awesome-skills
285
提供设计、实现和优化前沿计算机视觉流程的专业指导。涵盖实时目标检测(YOLO26)、基于提示的语义分割(SAM 3)以及利用视觉语言模型(VLM)进行高级视觉推理。适用于机器人、自动驾驶和工业检测等场景,尤其擅长3D重建和边缘侧部署优化。
查看详情
大模型上下文工程基础
context-fundamentals
sickn33/antigravity-awesome-skills
223
本技能深入讲解了大型语言模型(LLMs)推理时可用的完整状态(上下文)。内容涵盖系统提示、工具定义、消息历史记录和检索文档等核心组件。掌握上下文工程是构建稳定、高效AI智能体的关键,它指导用户如何优化上下文内容,管理注意力预算,确保模型接收到最相关的“高信号”信息。
查看详情
上下文优化策略
context-optimization
sickn33/antigravity-awesome-skills
293
本技能提供了一套高级的LLM上下文管理框架,旨在提升有限上下文窗口的有效容量。它涵盖了压缩、观测屏蔽、KV缓存优化和上下文分区等四种核心技术。通过优化Token使用,可以有效解决上下文限制问题,帮助构建成本更低、延迟更小、能处理大规模文档和复杂任务的生产级AI Agent系统。
查看详情
LLM 评估框架
evaluating-llms-harness
Orchestra-Research/AI-Research-SKILLs
66
提供涵盖 MMLU、HumanEval、GSM8K、TruthfulQA、HellaSwag 等 60+ 学术基准测试的标准化评估流程,可用来对 HuggingFace、vLLM 或 API 模型打分、比对性能、跟踪训练进度。
查看详情
TRL RLHF 训练管线
fine-tuning-with-trl
Orchestra-Research/AI-Research-SKILLs
393
使用 TRL 提供的 SFT、DPO、PPO/GRPO 和奖励模型训练流程,对 HuggingFace 模型进行 RLHF 调整,使其符合偏好与人类反馈。
查看详情
设备端 Foundation 模型
foundation-models-on-device
affaan-m/everything-claude-code
262
在 iOS 26+ 中使用 FoundationModels 框架,默认启用本地 LLM 文本生成、@Generable 结构化输出、工具调用与快照流式传输,满足隐私与离线需求。
查看详情
GGUF量化:高效大模型推理
gguf-quantization
Orchestra-Research/AI-Research-SKILLs
429
本指南深入介绍GGUF格式和模型量化技术,旨在实现大语言模型(LLM)在消费级硬件上的高效推理。通过采用GGUF标准格式和K-quant方法进行模型压缩,可以显著降低内存和硬件要求,使开发者能够在Apple Silicon、CPU或边缘设备上部署高性能AI应用。
查看详情
GPTQ LLM 量化指南
gptq
Orchestra-Research/AI-Research-SKILLs
277
GPTQ 提供后训练 4 位量化,可在 RTX 4090/3090 等消费级 GPU 上将大模型压缩至 1/4 内存并加速推理,同时维持低于 2% 的困惑度损失,适合部署和 QLoRA 微调。
查看详情
1
2
3
4
5
下一页
语言
简体中文
English