登录
下载
Skill UI
浏览并发现
9347+
精选技能
全部
编程开发
人工智能
设计创意
产品商业
数据科学
市场营销
职场通用
效率工具
硬件工程
语言学习
搜索
C
,共找到
891
条记录
默认排序
最新上传
最多下载
TorchTitan 分布式预训练
distributed-llm-pretraining-torchtitan
Orchestra-Research/AI-Research-SKILLs
414
基于 PyTorch 的 TorchTitan 实现 4D 并行(FSDP2/TP/PP/CP),支持 8~512+ GPU、Float8、编译优化与分布式检查点,用于 Llama 3.1、DeepSeek V3 或自定义大模型的预训练。
查看详情
分布式训练配置
distributed-training-setup
jeremylongshore/claude-code-plugins-plus-skills
496
提供分布式训练配置的自动化指导,涵盖逐步流程、生产级配置和输出校验,助力机器学习训练任务的规范实施。
查看详情
Docsbot AI 自动化
docsbot-ai-automation
ComposioHQ/awesome-claude-skills
466
通过 Rube MCP 与 Composio 的 Docsbot AI 工具包联动,先通过 RUBE_SEARCH_TOOLS 获取工具和 schema、确保 docsbot_ai 连接,再按返回结构调用,支撑自动化工作流。
查看详情
Dreamstudio 自动化指南
dreamstudio-automation
ComposioHQ/awesome-claude-skills
368
通过 Rube MCP/Composio 组合调用 Dreamstudio 工具,先发现最新 schema、验证连接活跃,再依次执行工具以稳定推进生成流程。
查看详情
声明式语言模型系统
dspy
Orchestra-Research/AI-Research-SKILLs
133
DSPy 通过声明式方式构建复杂语言模型系统,组合模块化的 RAG 和智能代理流程,并自动优化提示与模块,提升 LM 应用的可靠性与可维护性。
查看详情
嵌入模型选择与优化指南
embedding-strategies
sickn33/antigravity-awesome-skills
167
本指南详细介绍了为构建向量搜索和RAG应用选择和优化嵌入模型的全套策略。内容涵盖了主流模型对比、文本分块(chunking)技术、维度降低方法,并提供了基于OpenAI和本地Sentence Transformer的Python实战代码,帮助用户构建高质量的向量化存储系统。
查看详情
特征工程工具集
engineering-features-for-machine-learning
jeremylongshore/claude-code-plugins-plus-skills
466
该技能借助 feature-engineering-toolkit 插件自动创建、筛选和转化特征,用于提升机器学习模型的准确性和解释性,适合构造交互特征、降维或归一化等预处理场景。
查看详情
Entelligence自动化流程
entelligence-automation
ComposioHQ/awesome-claude-skills
202
通过 Rube MCP 接入 Composio 的 Entelligence 工具箱,指导先搜索工具、核实连接状态、使用规范参数执行工具,从而实现稳定的 Entelligence 操作自动化。
查看详情
多智能体代码审查编排工具
error-debugging-multi-agent-review
sickn33/antigravity-awesome-skills
461
这是一个高级AI系统,能够协调多个专业智能体(如安全审计、性能分析、架构专家)对代码进行多维度、全方位的审查。它通过上下文管理、并行执行和智能综合,为复杂的软件项目提供深度、全面的代码评估报告。
查看详情
Claude 评估驱动框架
eval-harness
affaan-m/everything-claude-code
90
Claude Code正式评估框架,先定义能力与回归标准,再用代码/模型/人工评估多个阶段,并持续跟踪pass@k和pass^k等可靠性指标以确保交付质量。
查看详情
代码模型评估与基准测试
evaluating-code-models
Orchestra-Research/AI-Research-SKILLs
200
本工具箱用于全面评估代码生成模型的性能。它支持针对HumanEval、MBPP、MultiPL-E等行业标准进行多语言基准测试。可量化比较不同大型语言模型(LLM)的编码能力,通过pass@k指标衡量代码生成质量。
查看详情
LLM 评估框架
evaluating-llms-harness
Orchestra-Research/AI-Research-SKILLs
66
提供涵盖 MMLU、HumanEval、GSM8K、TruthfulQA、HellaSwag 等 60+ 学术基准测试的标准化评估流程,可用来对 HuggingFace、vLLM 或 API 模型打分、比对性能、跟踪训练进度。
查看详情
上一页
1
2
3
...
10
11
12
13
14
15
16
...
73
74
75
下一页
语言
简体中文
English