跳转到主内容
版本:开发版

智能体组件

该组件具备推理、工具使用和多智能体协作能力。


Agent 组件可以微调大语言模型(LLM)并设置其提示(prompt)。从 v0.20.0 版本开始,Agent 组件能够独立工作并具备以下能力:

  • 根据环境反馈进行自主推理、反思和调整。
  • 使用工具或子智能体完成任务。

使用场景

当您需要 LLM 辅助进行总结、翻译或控制各种任务时,Agent 组件是必不可少的。

配置

模型

点击 模型 下拉菜单,显示模型配置窗口。

  • 模型:要使用的聊天模型。
    • 请确保在 模型提供商 页面正确设置了聊天模型。
    • 您可以为不同的组件使用不同的模型,以增加灵活性或提高整体性能。
  • 自由度:这是 TemperatureTop PPresence penaltyFrequency penalty 设置的快捷方式,表示模型的自由度级别。从 自由发挥精准平衡,每种预设配置都对应着 TemperatureTop PPresence penaltyFrequency penalty 的独特组合。
    此参数有三个选项
    • 自由发挥:产生更具创造性的回应。
    • 精准:(默认)产生更保守的回应。
    • 平衡:介于自由发挥精准之间。
  • 温度:模型输出的随机性水平。
    默认为 0.1。
    • 值越低,输出越具确定性和可预测性。
    • 值越高,输出越具创造性和多样性。
    • 温度为零时,对于相同的提示会产生相同的输出。
  • Top P:核心采样。
    • 通过设置一个阈值 P,将采样限制在累积概率超过 P 的词元范围内,从而降低生成重复或不自然文本的可能性。
    • 默认为 0.3。
  • 存在惩罚:鼓励模型在回应中包含更多样化的词元。
    • 较高的存在惩罚值会使模型更倾向于生成尚未包含在已生成文本中的词元。
    • 默认为 0.4。
  • 频率惩罚:阻止模型在生成的文本中过于频繁地重复相同的词语或短语。
    • 较高的频率惩罚值会使模型在使用重复词元方面更加保守。
    • 默认为 0.7。
  • 最大令牌数:
注意
  • 并非所有组件都必须使用相同的模型。如果某个特定模型在特定任务上表现不佳,可以考虑使用其他模型。
  • 如果您不确定 TemperatureTop PPresence penaltyFrequency penalty 背后的机制,只需从三种 预设配置 中选择一个即可。

系统提示

通常,您使用系统提示来为 LLM 描述任务、指定其应如何响应以及概述其他杂项要求。我们不打算详细阐述这个主题,因为它可能像提示工程一样广泛。但请注意,系统提示通常与键(变量)结合使用,这些键充当 LLM 的各种数据输入。

重要

Agent 组件依赖键(变量)来指定其数据输入。其直接上游组件不一定是其数据输入,工作流中的箭头指示处理顺序。Agent 组件中的键与系统提示结合使用,以指定 LLM 的数据输入。使用正斜杠 /(x) 按钮来显示要使用的键。

用户提示

用户定义的提示。默认为 sys.query,即用户查询。

工具

您可以将 Agent 组件用作一个协作者,借助其他工具进行推理和反思;例如,Retrieval 可以作为 Agent 的一个工具。

智能体

您可以将 Agent 组件用作一个协作者,借助子智能体或其他工具进行推理和反思,从而形成一个多智能体系统。

消息窗口大小

一个整数,指定要输入到 LLM 中的前几轮对话的数量。例如,如果设置为 12,则会把最近 12 轮对话的令牌输入给 LLM。此功能会消耗额外的令牌。

重要

此功能用于多轮对话。

最大重试次数

定义智能体在停止或报告失败之前,为重试失败的任务或操作所做的最大尝试次数。

出错后延迟

智能体在重试失败任务前等待的时间(以秒为单位),有助于防止立即重复尝试并允许系统条件改善。默认为 1 秒。

最大轮次

定义所选聊天模型的最大反思轮次数。默认为 5 轮。

输出

Agent 组件输出的全局变量名,工作流中的其他组件可以引用该变量。