距离上次年终回顾已经过去了半年。随着年初 DeepSeek 引发的热潮逐渐退去,人工智能似乎进入了一个停滞期。这种模式在检索增强生成(RAG)领域也很明显:尽管关于 RAG 的学术论文仍然层出不穷,但近几个月来重大突破寥寥无几。同样,RAGFlow 最近的迭代也主要集中在增量改进上,而不是发布重大新功能。这究竟是未来飞跃的蓄力期,还是一个稳定、渐进增长时期的开始?因此,进行一次年中评估既及时又必要。
站在十字路口的 RAG——2025 年中对 AI 渐进式演进的反思
·13 分钟阅读
距离上次年终回顾已经过去了半年。随着年初 DeepSeek 引发的热潮逐渐退去,人工智能似乎进入了一个停滞期。这种模式在检索增强生成(RAG)领域也很明显:尽管关于 RAG 的学术论文仍然层出不穷,但近几个月来重大突破寥寥无几。同样,RAGFlow 最近的迭代也主要集中在增量改进上,而不是发布重大新功能。这究竟是未来飞跃的蓄力期,还是一个稳定、渐进增长时期的开始?因此,进行一次年中评估既及时又必要。
搜索技术仍然是计算机科学领域的主要挑战之一,能够实现高效搜索的商业产品屈指可数。在大型语言模型(LLM)兴起之前,强大的搜索功能并不被认为是必不可少的,因为它对用户体验没有直接贡献。然而,随着 LLM 的普及,要将 LLM 应用于企业场景,就必须拥有一个强大的内置检索系统。这也就是所谓的检索增强生成(RAG)——在将用户查询输入 LLM 进行最终答案生成之前,先在内部知识库中搜索与用户查询最相关的内容。
从 v0.8 版本开始,RAGFlow 正式进入 Agentic 时代,后端提供全面的基于图的任务编排框架,前端则提供无代码工作流编辑器。为什么选择 Agentic?这个功能与现有的工作流编排系统有何不同?
一个朴素 RAG 系统的工作流程可以概括如下:RAG 系统使用用户查询从指定的数据源中进行检索,对检索结果进行重新排序,附加提示词,然后将它们发送给大语言模型(LLM)以生成最终答案。
在用户意图明确的场景下,简单的 RAG 就足够了,因为答案包含在检索到的结果中,可以直接发送给 LLM。然而,在大多数情况下,用户意图模糊是常态,需要通过迭代查询来生成最终答案。例如,涉及总结多个文档的问题就需要多步推理。这些场景需要 Agentic RAG,即在问答过程中引入任务编排机制。
Agent 和 RAG 相辅相成。Agentic RAG,顾名思义,是基于 Agent 的 RAG。Agentic RAG 与简单 RAG 的主要区别在于,Agentic RAG 引入了动态的 Agent 编排机制,该机制会对检索结果进行评判,根据每个用户查询的意图重写查询,并采用“多跳”推理来处理复杂的问答任务。