登录
下载
Skill UI
浏览并发现
5998+
精选技能
全部
编程开发
人工智能
设计创意
产品商业
数据科学
市场营销
职场通用
效率工具
硬件工程
语言学习
搜索
对比
,共找到
11
条记录
默认排序
最新上传
最多下载
AWS 合规校验器
aws-compliance-checker
sickn33/antigravity-awesome-skills
260
自动对比 CIS AWS Foundations、PCI-DSS、HIPAA 和 SOC 2 等标准,帮助团队准备审计或保持持续合规监控。
查看详情
LLM 评估工具套件
evaluating-llms-harness
Orchestra-Research/AI-Research-SKILLs
343
通过 lm-evaluation-harness 在 MMLU、HumanEval、GSM8K 等 60 多个学术基准上,对 HuggingFace/vLLM/API 模型进行对比评测、训练追踪并输出统一报告,适合实验室发布与质量监控。
查看详情
LLM 微调专家指南
fine-tuning-expert
Jeffallan/claude-skills
360
面向大语言模型的实战微调流程,涵盖数据集准备、LoRA/QLoRA/PEFT 适配器配置、超参设置、训练监控、评估对比及量化部署等生产级步骤。
查看详情
Langfuse评估与打分流程
langfuse-core-workflow-b
jeremylongshore/claude-code-plugins-plus-skills
400
使用Langfuse核心流程B收集用户反馈、自动化评估函数、LLM裁判评分,并对比提示以实现AI产出质量打分和AB测试。
查看详情
NeMo LLM 企业级评测
nemo-evaluator-sdk
Orchestra-Research/AI-Research-SKILLs
345
NeMo Evaluator SDK 提供企业级 LLM 评测,基于容器化、多后端(Docker、本地 Slurm、云端)执行,覆盖 100+ 基准和 18+ 工具链,便于复现、对比和监控模型表现。
查看详情
实验追踪配置助手
setting-up-experiment-tracking
jeremylongshore/claude-code-plugins-plus-skills
325
自动化配置 MLflow 或 W&B 的实验追踪,设置环境、启动服务,并提供记录参数、指标与产物的代码示例,保持模型训练可复现且便于对比。
查看详情
TensorBoard 可视化工具集
tensorboard
Orchestra-Research/AI-Research-SKILLs
69
TensorBoard 是谷歌的 ML 可视化工具,可查看训练损失/准确度曲线、对比实验、调试模型、展示图结构、低维空间投影与性能剖析,适配 PyTorch 与 TensorFlow。
查看详情
Weights And Biases 试验管理平台
weights-and-biases
Orchestra-Research/AI-Research-SKILLs
148
Weights & Biases 提供自动记录指标、配置和制品的 MLOps 平台,通过实时仪表盘监控训练、对比实验、自动调参并共享模型,适用于团队协作和模型管理场景。
查看详情
智能体生态探索指南
agentfolio
sickn33/antigravity-awesome-skills
478
AgentFolio 提供自主智能体目录,可帮助你发现、对比与分析各类代理、框架、集成与交互模式,支持在开发前或选型期快速掌握趋势与最佳实践。
查看详情
LLM 自动评估指南
advanced-evaluation
sickn33/antigravity-awesome-skills
177
围绕 LLM 评审构建生产级评估体系,涵盖直接评分与对比分析流程、降低位置/长度等偏差、以及面向自动化或人工评审的指标选型。
查看详情
智能代理评估工具
agent-eval
affaan-m/everything-claude-code
207
轻量级命令行工具,可对 Claude Code、Aider、Codex 等编程代理在可复现任务上进行对比,使用 Git worktree 隔离执行并记录通过率、成本、耗时和一致性。
查看详情
1
语言
简体中文
English