登录
下载
Skill UI
浏览并发现
9183+
精选技能
全部
编程开发
人工智能
设计创意
产品商业
数据科学
市场营销
职场通用
效率工具
硬件工程
语言学习
搜索
LMS
,共找到
97
条记录
默认排序
最新上传
最多下载
Langfuse 观测平台
langfuse
sickn33/antigravity-awesome-skills
134
Langfuse 提供完整的 LLM 观测能力,涵盖调用追踪、提示管理、评估打分与成本/延迟/质量监控,适用于与 LangChain、LlamaIndex、OpenAI 等集成的生产场景。
查看详情
Langfuse CI/CD:LLM质量测试集成
langfuse-ci-integration
jeremylongshore/claude-code-plugins-plus-skills
444
本指南展示如何将Langfuse集成到CI/CD流水线(例如GitHub Actions)中,用于自动化大型语言模型(LLM)的质量测试。用户可以实现提示词回归测试、调用链验证和实验驱动的质量门禁,确保AI应用的稳定性和性能。
查看详情
Langfuse LLM成本监控与优化
langfuse-cost-tuning
jeremylongshore/claude-code-plugins-plus-skills
281
本指南展示如何利用Langfuse强大的分析功能,实现大型语言模型(LLM)的成本监控、分析与优化。内容涵盖自动令牌使用量跟踪、通过Metrics API获取成本报告,以及实现智能模型路由,根据任务复杂度和输入长度自动选择最具成本效益的模型。适用于需要管理AI预算、控制LLM支出和提升系统效率的开发团队。
查看详情
LLaMA 工厂指南
llama-factory
Orchestra-Research/AI-Research-SKILLs
327
提供 llama-factory 的全面指南,通过 WebUI 无代码方式帮助微调大模型,涵盖 QLoRA/LoRA 量化、多模态和 HuggingFace 生态下的常见模型及调试技巧。
查看详情
大型语言模型提示词优化
llm-application-dev-prompt-optimize
sickn33/antigravity-awesome-skills
172
本技能模拟专家级提示词工程师,专注于为大型语言模型(LLMs)优化提示词。它运用宪法AI、思维链等高级技术,将基础指令转化为生产级的优化提示,能够显著提高模型的准确性、降低幻觉并节省成本。适用于需要系统性提升LLM性能和流程优化的场景。
查看详情
MCP服务器开发指南
mcp-builder
ComposioHQ/awesome-claude-skills
407
构建高质量 MCP 服务器的指南,涵盖 Python/TypeScript SDK、工具设计、校验与可读错误,帮助 LLM 通过工作流级接口接入外部服务。
查看详情
MCP服务器开发指南
mcp-builder-ms
sickn33/antigravity-awesome-skills
161
本指南详细介绍了构建模型上下文协议(MCP)服务器的流程,用于使大型语言模型(LLM)能够与外部API和服务进行交互,从而完成复杂的真实世界任务。内容涵盖了架构规划、选择合适的开发语言(如Python、TypeScript)以及选择传输机制,确保在Azure、Foundry等企业级生态系统中的可靠集成。
查看详情
Mistral:嵌入、RAG与函数调用工作流
mistral-core-workflow-b
jeremylongshore/claude-code-plugins-plus-skills
378
本工作流旨在构建基于Mistral AI的进阶应用。内容涵盖文本和代码嵌入生成、基于余弦相似度的语义搜索实现,以及完整的RAG(检索增强生成)流程。同时,它还详细演示了函数调用(Tool Use)机制,使大模型能够与外部工具和API进行交互,实现更复杂的业务逻辑。
查看详情
Moodle外部API开发指南
moodle-external-api-development
sickn33/antigravity-awesome-skills
227
本指南详细介绍了如何在Moodle学习管理系统(LMS)中创建自定义外部Web服务API。它遵循Moodle的API框架和编码标准,指导开发者实现完整的API功能。内容涵盖了参数定义、业务逻辑执行和数据返回结构,用于将Moodle核心功能安全地暴露给外部应用程序使用。
查看详情
Ollama本地LLM部署配置
ollama-setup
jeremylongshore/claude-code-plugins-plus-skills
122
本技能用于配置和部署本地的大型语言模型(LLM)环境,使用 Ollama。它会自动检测您的操作系统和硬件资源,选择合适的模型,并完成在 macOS、Linux 或 Docker 上的安装。这使得用户能够实现离线、免费的AI推理,无需依赖外部API服务,适用于构建生产环境的AI应用。
查看详情
大模型API合规审计与最佳实践
openrouter-compliance-review
jeremylongshore/claude-code-plugins-plus-skills
397
这是一份关于使用OpenRouter集成大模型(LLMs)进行合规审计的指南。文章详细介绍了如何满足SOC2、GDPR和HIPAA等监管要求。内容涵盖数据处理、访问控制、个人身份信息(PII)去标识化、建立审计日志以及配置提供商路由,确保数据主权和满足行业严格标准。
查看详情
构建AI模型故障转移与高可用性
openrouter-fallback-config
jeremylongshore/claude-code-plugins-plus-skills
296
本技能详细介绍了如何在OpenRouter环境下为大型语言模型(LLM)配置故障转移和回退机制。它涵盖了原生模型回退、提供商路由策略和客户端级故障链设计。当构建对可靠性要求极高、必须在主模型或提供商不可用时也能持续运作的系统时,应使用此模式,以确保API集成和系统优雅降级。
查看详情
上一页
1
2
3
4
5
6
7
8
9
下一页
语言
简体中文
English