登录
下载
Skill UI
浏览并发现
7129+
精选技能
全部
编程开发
人工智能
设计创意
产品商业
数据科学
市场营销
职场通用
效率工具
硬件工程
语言学习
搜索
语言模型
,共找到
35
条记录
默认排序
最新上传
最多下载
大型语言模型智能体评估
agent-evaluation
sickn33/antigravity-awesome-skills
153
本技能旨在解决LLM智能体从基准测试到实际生产环境的性能鸿沟。它教授高级质量工程实践,包括行为契约测试、对抗性测试和统计分析,确保智能体在部署时保持可靠性和鲁棒性,帮助开发者超越简单的通过/失败率。
查看详情
BLIP-2 视觉语言框架
blip-2-vision-language
Orchestra-Research/AI-Research-SKILLs
118
该框架将冻结的图像编码器与大语言模型连接,适用于图像描述、视觉问答、检索与多模态对话,在无需微调的条件下实现零样本推理,并仅训练轻量 Q-Former。
查看详情
CLIP 视觉语言工具
clip
Orchestra-Research/AI-Research-SKILLs
480
CLIP 借助预训练对比模型,在零样本图像分类、语义匹配、图像搜索和内容审核等视觉语言场景中无需微调即可部署。
查看详情
上下文退化模式
context-degradation
sickn33/antigravity-awesome-skills
101
分析大语言模型随上下文增长出现的退化规律,涵盖中间遗失、上下文污染、干扰与混淆等类型,帮助定位问题、调整上下文结构并提升长会话鲁棒性。
查看详情
上下文工程基础知识
context-fundamentals
sickn33/antigravity-awesome-skills
115
介绍语言模型推理时的上下文组成与约束,帮助工程师梳理指令、工具、检索、历史和输出的组织方式,从而调优代理行为并控制令牌成本。
查看详情
增强型LLM对话记忆系统
conversation-memory
sickn33/antigravity-awesome-skills
148
该技能提供构建大型语言模型(LLM)持久化内存系统的框架。它支持短期上下文存储、长期知识检索和实体信息更新等多种记忆管理模式。适用于开发能够长时间维持对话连贯性、记住用户历史和提供高度情境化交互的智能助手,解决了传统LLM容易遗忘上下文的问题。
查看详情
声明式语言模型系统
dspy
Orchestra-Research/AI-Research-SKILLs
284
DSPy 通过声明式方式构建复杂语言模型系统,组合模块化的 RAG 和智能代理流程,并自动优化提示与模块,提升 LM 应用的可靠性与可维护性。
查看详情
代码模型评估与基准测试
evaluating-code-models
Orchestra-Research/AI-Research-SKILLs
466
本工具箱用于全面评估代码生成模型的性能。它支持针对HumanEval、MBPP、MultiPL-E等行业标准进行多语言基准测试。可量化比较不同大型语言模型(LLM)的编码能力,通过pass@k指标衡量代码生成质量。
查看详情
GGUF量化:高效大模型推理
gguf-quantization
Orchestra-Research/AI-Research-SKILLs
256
本指南深入介绍GGUF格式和模型量化技术,旨在实现大语言模型(LLM)在消费级硬件上的高效推理。通过采用GGUF标准格式和K-quant方法进行模型压缩,可以显著降低内存和硬件要求,使开发者能够在Apple Silicon、CPU或边缘设备上部署高性能AI应用。
查看详情
大型语言模型(LLM)实现与训练
implementing-llms-litgpt
Orchestra-Research/AI-Research-SKILLs
316
LitGPT提供了一个用于实现和训练超过20种前沿大型语言模型(如Llama, Gemma, Mistral)的工具。它支持完整的微调(Fine-tuning)、高效的LoRA适配以及从零开始的预训练流程。适用于需要清晰模型结构、学术理解或生产级部署的开发者。
查看详情
知识蒸馏:大模型压缩
knowledge-distillation
Orchestra-Research/AI-Research-SKILLs
102
知识蒸馏(KD)是一种核心的AI模型压缩技术。它旨在将性能强大的大型语言模型(Teacher)的知识,高效地转移给更小、更易于部署的学生模型(Student)。这使得开发者能够在不损失关键性能的前提下,大幅降低推理成本,实现将前沿大模型能力落地到实际应用场景。
查看详情
CPU/边缘本地大模型推理
llama-cpp
Orchestra-Research/AI-Research-SKILLs
240
llama.cpp是一个纯C/C++编写的轻量级推理框架,专为在资源受限的设备上运行大型语言模型(LLM)而设计。它特别适用于没有高性能NVIDIA GPU(CUDA)的场景,非常适合Apple Silicon、AMD/Intel GPU以及边缘计算设备。通过支持GGUF量化,可以实现内存占用和推理速度的显著优化,支持本地跨平台部署。
查看详情
1
2
3
下一页
语言
简体中文
English