标签:RAG

让RAG真正读懂“言外之意”!新框架引入词汇多样性,刷新多项基准SOTA

(由多段落组成): 在大语言模型飞速发展的今天,Retrieval-Augmented Generation(RAG)技术已成为提升模型事实准确性与信息时效性的关键路径。然而,尽管RAG已被广泛应用,其在面对人类语言丰富表达方式时仍显乏力——尤其是当同一问题以不同词汇呈现时,检索系统容易“误判”,导致生成结果偏离真实答案。针对这一长期被忽视的痛点,来自北京航空航天大学、北京大学及中关村实验室的联合研究团队,在ACL 2025上提出了一项突破性工作:Lexical Diversity-aware RAG(简称DRAG),首次将“词汇多样性”系统化地融入RAG框架中,...

标题:优化RAG模型性能,通过向量检索与最大内积提升30%效率,结合PSP算法实现百亿级数据规模的高可扩展性应用

第一段: 只需调整两行代码,RAG(检索增强生成模型)的向量检索效率即可提升30%!这种方法不仅适用于“文搜文”、“图搜图”、“文搜图”以及“推荐系统召回”等多种任务,还具备出色的扩展性,能够支持十亿甚至百亿级别的大规模数据应用。浙江大学高云君、柯翔宇团队联合向量检索领域专家傅聪,开源了一种新方法PSP(Proximity graph with Spherical Pathway),成功解决了RAG的两大核心难题。 第二段: 传统向量检索方法大多基于欧几里得距离设计,主要关注“谁离你最近”。然而,在许多场景下,AI更需要比较的是“语义相关性”,即...

RAG技术新突破:块状注意力机制大幅提升大型语言模型的推理效率与检索增强能力

在工业应用场景中,检索技术常被用来为大型语言模型(LLM)提供外部数据库的知识文档,以提高模型回答的可信度。目前,RAG(Retrieval-Augmented Generation)被认为是向 LLM 注入特定领域知识最有效的方法之一。然而,RAG 也存在一些缺点。为了确保召回包含正确信息的文档,通常每次用户查询都会检索多个文档(大约 5 到 30 个),并将这些文档整合到输入提示中。这导致输入提示的序列长度增加,从而使推理效率显著下降。具体来说,RAG 模型的首次生成标记时间(TTFT)明显高于非 RAG 模型。 为了解决这一问题,研究人员提...