登录
下载
Skill UI
浏览并发现
7270+
精选技能
全部
编程开发
人工智能
设计创意
产品商业
数据科学
市场营销
职场通用
效率工具
硬件工程
语言学习
搜索
语言模型
,共找到
29
条记录
默认排序
最新上传
最多下载
大语言模型智能体评估
agent-evaluation
sickn33/antigravity-awesome-skills
271
这是一个用于全面测试和评估大型语言模型(LLM)智能体的框架。它超越了简单的通过/失败判断,深入评估智能体的复杂行为、可靠性指标和能力一致性。适用于生产环境的监控,帮助识别高级AI智能体中的微妙故障模式。
查看详情
BLIP-2 视觉语言框架
blip-2-vision-language
Orchestra-Research/AI-Research-SKILLs
350
该框架将冻结的图像编码器与大语言模型连接,适用于图像描述、视觉问答、检索与多模态对话,在无需微调的条件下实现零样本推理,并仅训练轻量 Q-Former。
查看详情
CLIP 视觉语言工具
clip
Orchestra-Research/AI-Research-SKILLs
110
CLIP 借助预训练对比模型,在零样本图像分类、语义匹配、图像搜索和内容审核等视觉语言场景中无需微调即可部署。
查看详情
上下文退化模式
context-degradation
sickn33/antigravity-awesome-skills
101
分析大语言模型随上下文增长出现的退化规律,涵盖中间遗失、上下文污染、干扰与混淆等类型,帮助定位问题、调整上下文结构并提升长会话鲁棒性。
查看详情
上下文工程基础知识
context-fundamentals
sickn33/antigravity-awesome-skills
115
介绍语言模型推理时的上下文组成与约束,帮助工程师梳理指令、工具、检索、历史和输出的组织方式,从而调优代理行为并控制令牌成本。
查看详情
大型语言模型上下文管理
context-window-management
sickn33/antigravity-awesome-skills
86
本技能集提供了一套高级的、结构化的LLM上下文管理策略。内容涵盖了智能总结、动态修剪、上下文路由和Token预算分配,旨在有效防止“上下文衰退”。它是构建复杂、长流程、多轮对话式AI系统的关键技术。
查看详情
声明式语言模型系统
dspy
Orchestra-Research/AI-Research-SKILLs
133
DSPy 通过声明式方式构建复杂语言模型系统,组合模块化的 RAG 和智能代理流程,并自动优化提示与模块,提升 LM 应用的可靠性与可维护性。
查看详情
代码模型评估与基准测试
evaluating-code-models
Orchestra-Research/AI-Research-SKILLs
200
本工具箱用于全面评估代码生成模型的性能。它支持针对HumanEval、MBPP、MultiPL-E等行业标准进行多语言基准测试。可量化比较不同大型语言模型(LLM)的编码能力,通过pass@k指标衡量代码生成质量。
查看详情
GGUF量化:高效大模型推理
gguf-quantization
Orchestra-Research/AI-Research-SKILLs
429
本指南深入介绍GGUF格式和模型量化技术,旨在实现大语言模型(LLM)在消费级硬件上的高效推理。通过采用GGUF标准格式和K-quant方法进行模型压缩,可以显著降低内存和硬件要求,使开发者能够在Apple Silicon、CPU或边缘设备上部署高性能AI应用。
查看详情
大型语言模型(LLM)实现与训练
implementing-llms-litgpt
Orchestra-Research/AI-Research-SKILLs
252
LitGPT提供了一个用于实现和训练超过20种前沿大型语言模型(如Llama, Gemma, Mistral)的工具。它支持完整的微调(Fine-tuning)、高效的LoRA适配以及从零开始的预训练流程。适用于需要清晰模型结构、学术理解或生产级部署的开发者。
查看详情
知识蒸馏:大模型压缩
knowledge-distillation
Orchestra-Research/AI-Research-SKILLs
337
知识蒸馏(KD)是一种核心的AI模型压缩技术。它旨在将性能强大的大型语言模型(Teacher)的知识,高效地转移给更小、更易于部署的学生模型(Student)。这使得开发者能够在不损失关键性能的前提下,大幅降低推理成本,实现将前沿大模型能力落地到实际应用场景。
查看详情
CPU/边缘本地大模型推理
llama-cpp
Orchestra-Research/AI-Research-SKILLs
249
llama.cpp是一个纯C/C++编写的轻量级推理框架,专为在资源受限的设备上运行大型语言模型(LLM)而设计。它特别适用于没有高性能NVIDIA GPU(CUDA)的场景,非常适合Apple Silicon、AMD/Intel GPU以及边缘计算设备。通过支持GGUF量化,可以实现内存占用和推理速度的显著优化,支持本地跨平台部署。
查看详情
1
2
3
下一页
语言
简体中文
English