帮助Agent减少token消耗的技能,经AB对照实验验证,可节省21%-60%的Token使用量,同时保持输出质量。 核心功能: 1. Prompt优化 - 识别并去除冗余表达,精简提示词 2. 上下文管理 - 智能判断历史记录的保留范围 3. 输出控制 - 生成约束指令,控制模型响应长度 4. 模型建议 - 根据任务类型推荐合适的模型 适用场景:需要降低LLM使用成本的Agent开发者,可显著减少Token消耗。