登录
下载
Skill UI
浏览并发现
9126+
精选技能
全部
编程开发
人工智能
设计创意
产品商业
数据科学
市场营销
职场通用
效率工具
硬件工程
语言学习
搜索
压缩
,共找到
44
条记录
默认排序
最新上传
最多下载
数据库归档自动化
archiving-databases
jeremylongshore/claude-code-plugins-plus-skills
486
自动识别 PostgreSQL/MySQL 中的历史数据,执行保留策略,将数据压缩后迁移到归档表或 S3、Azure Blob、GCS 等冷存储,同时记录合规报表,减小主库体积。
查看详情
数据库归档自动化
archiving-databases
jeremylongshore/claude-code-plugins-plus-skills
486
自动识别 PostgreSQL/MySQL 中的历史数据,执行保留策略,将数据压缩后迁移到归档表或 S3、Azure Blob、GCS 等冷存储,同时记录合规报表,减小主库体积。
查看详情
数据库备份自动化
automating-database-backups
jeremylongshore/claude-code-plugins-plus-skills
397
自动生成压缩加密脚本、配置定时任务并整理恢复流程,支持 PostgreSQL、MySQL、MongoDB 与 SQLite 的备份自动化与灾难恢复规划需求。
查看详情
数据库备份自动化
automating-database-backups
jeremylongshore/claude-code-plugins-plus-skills
397
自动生成压缩加密脚本、配置定时任务并整理恢复流程,支持 PostgreSQL、MySQL、MongoDB 与 SQLite 的备份自动化与灾难恢复规划需求。
查看详情
AWQ 激活感知权重量化
awq-quantization
Orchestra-Research/AI-Research-SKILLs
376
AWQ 利用激活感知权重保护技术,将 7B-70B 模型压缩到 4-bit,在受限显存上保持精度并提升近 3 倍推理速度,可配合 vLLM、Marlin 等加速后端部署大模型。
查看详情
Azure Monitor 日志摄取Python SDK
azure-monitor-ingestion-py
sickn33/antigravity-awesome-skills
302
这是一个用于Python的SDK,专门用于将自定义日志安全地发送到Azure Monitor Log Analytics工作区。它通过Logs Ingestion API实现日志摄取,支持批量压缩、错误处理、异步上传,并兼容多种身份验证模型,是构建云监控和日志分析系统的关键组件。
查看详情
数据管道压缩优化助手
compression-optimizer
jeremylongshore/claude-code-plugins-plus-skills
235
在数据管道场景中提供压缩优化的逐步指导,涵盖 ETL、转换、流式处理等流程的实践建议、配置和校验。
查看详情
AI智能体上下文压缩
context-compression
sickn33/antigravity-awesome-skills
376
针对AI智能体在处理超长对话历史(数百万Tokens)时遇到的上下文窗口限制问题。本技能提供先进的上下文压缩策略,核心在于通过结构化摘要(如明确记录“文件修改”、“决策点”等模块)来防止关键技术信息丢失。它强调的优化目标是“任务完成所需的总Token量”,而非单纯的请求Token量,确保智能体在复杂任务链中能保持完整状态和准确的知识追踪。
查看详情
上下文优化策略
context-optimization
sickn33/antigravity-awesome-skills
293
本技能提供了一套高级的LLM上下文管理框架,旨在提升有限上下文窗口的有效容量。它涵盖了压缩、观测屏蔽、KV缓存优化和上下文分区等四种核心技术。通过优化Token使用,可以有效解决上下文限制问题,帮助构建成本更低、延迟更小、能处理大规模文档和复杂任务的生产级AI Agent系统。
查看详情
印象笔记资源优化管理
evernote-cost-tuning
jeremylongshore/claude-code-plugins-plus-skills
302
用于管理与印象笔记(Evernote)的集成资源和成本。核心功能包括实时监控上传配额、压缩图片以减小文件体积、清洗冗余大型笔记,确保API使用在账户限制和预算范围内,实现高效的数据存储和传输。
查看详情
GGUF量化:高效大模型推理
gguf-quantization
Orchestra-Research/AI-Research-SKILLs
429
本指南深入介绍GGUF格式和模型量化技术,旨在实现大语言模型(LLM)在消费级硬件上的高效推理。通过采用GGUF标准格式和K-quant方法进行模型压缩,可以显著降低内存和硬件要求,使开发者能够在Apple Silicon、CPU或边缘设备上部署高性能AI应用。
查看详情
GPTQ LLM 量化指南
gptq
Orchestra-Research/AI-Research-SKILLs
277
GPTQ 提供后训练 4 位量化,可在 RTX 4090/3090 等消费级 GPU 上将大模型压缩至 1/4 内存并加速推理,同时维持低于 2% 的困惑度损失,适合部署和 QLoRA 微调。
查看详情
1
2
3
4
下一页
语言
简体中文
English