距离我们上次的年终回顾已经过去了六个月。随着年初 DeepSeek 引发的第一波兴奋浪潮开始消退,人工智能似乎进入了一个停滞阶段。这种模式在检索增强生成(RAG)领域也同样明显:尽管关于 RAG 的学术论文仍然层出不穷,但近几个月来重大突破寥寥无几。同样,RAGFlow 最近的迭代也主要集中在增量改进上,而非发布重大功能。这究竟是未来飞跃的序曲,还是稳步渐进增长时期的开始?因此,进行一次年中评估既及时又必要。
8 篇标记为“agent”的文章
查看所有标签2024年 RAG 的兴起与演进:年度回顾
2024 年即将结束,检索增强生成(RAG)的发展可谓波澜壮阔。让我们从多个角度全面回顾这一年的进展。
深入了解 RAGFlow v0.15.0
RAGFlow 2024 年的最终版本 v0.15.0 刚刚发布,带来了以下关键更新
智能体(Agent)改进
此版本对 Agent 进行了多项增强,包括增加了 API、支持单步运行调试以及导入/导出功能。自 v0.13.0 版本以来,RAGFlow 的 Agent 经过重构,以提升其易用性。此次新增的单步运行调试功能完善了这一过程,使得 Agent 工作流中的算子可以被单独执行,从而帮助用户根据输出信息进行调试。
除了混合搜索,RAG 还需要什么样的基础设施能力?
Infinity 是一款专为检索增强生成(RAG)设计的数据库,在功能和性能上均表现出色。它为密集和稀疏向量搜索以及全文搜索提供高性能支持,并能对这些数据类型进行高效的范围过滤。此外,它还具备基于张量的重排(reranking)功能,能够实现强大的多模态 RAG,并集成了与交叉编码器(Cross Encoders)相媲美的排序能力。
使用 RAGFlow 实现 Text2SQL
RAGFlow 响应社区需求,推出了 Text2SQL 功能。传统的 Text2SQL 需要对模型进行微调,当在企业环境中与 RAG 或 Agent 组件一同使用时,会显著增加部署和维护成本。RAGFlow 基于 RAG 的 Text2SQL 利用了现有的(已连接的)大语言模型(LLM),能够与其他 RAG/Agent 组件无缝集成,而无需额外的微调模型。
从 RAG 1.0 到 RAG 2.0,万变不离其宗
搜索技术仍然是计算机科学领域的重大挑战之一,很少有商业产品能够实现有效的搜索。在大语言模型(LLM)兴起之前,强大的搜索能力并未被视为必不可少,因为它对用户体验没有直接贡献。然而,随着 LLM 日益普及,将 LLM 应用于企业场景就需要一个强大的内置检索系统。这也就是所谓的检索增强生成(RAG)——在将内容提供给 LLM 生成最终答案之前,先在内部知识库中搜索与用户查询最相关的内容。
RAGFlow 迈入智能体时代
自 v0.8 版本起,RAGFlow 正式迈入 Agentic 时代,后端提供了全面的基于图的任务编排框架,前端则提供了无代码的工作流编辑器。为什么要引入 Agentic?这项功能与现有的工作流编排系统有何不同?
Agentic RAG - 定义与低代码实现
一个朴素 RAG 系统的工作流程可以概括如下:RAG 系统使用用户查询从指定的数据源中进行检索,对检索结果进行重新排序,附加提示词,然后将它们发送给大语言模型(LLM)以生成最终答案。
在用户意图明确的场景下,一个简单的 RAG 就已足够,因为答案包含在检索到的结果中,可以直接发送给 LLM。然而,在大多数情况下,用户意图模糊是常态,需要通过迭代查询来生成最终答案。例如,涉及总结多份文档的问题就需要多步推理。这些场景需要 Agentic RAG,它在问答过程中引入了任务编排机制。
Agent 和 RAG 相辅相成。Agentic RAG,顾名思义,是基于 Agent 的 RAG。Agentic RAG 与简单 RAG 的主要区别在于,Agentic RAG 引入了动态的 Agent 编排机制,该机制能够评判检索结果、根据用户每次查询的意图重写查询,并采用“多跳”推理来处理复杂的问答任务。