RAG不能彻底解决生成式AI的幻觉问题

数码好在云体验 2024-05-23 08:09:55

生成式AI的“幻觉”问题,即AI模型提供虚假信息的现象,给企业在集成这项技术时带来了巨大挑战。

虽然一些厂商声称通过检索增强生成(RAG)技术可以完全消除幻觉,但实际上,RAG并不能彻底解决这个问题。

生成式AI模型依靠创建的模式预测文字、图像、语音、音乐等数据,由于缺乏真正的智能,它们有时会出现严重的错误。

例如,最近《华尔街日报》的一篇报道中提到,微软的生成式AI虚构了会议参与者,并暗示电话会议讨论了实际上并未涉及的话题。

RAG技术介绍

RAG技术由数据科学家Patrick Lewis提出,他是提出RAG技术的论文的主要作者,他是Meta的研究者。

当RAG应用于模型时,他会通过关键字检索与问题相关的文档。比如访问某一个维基百科页面,然后,它会让模型根据这些附加的上下文生成答案。

根据Squirro公司的介绍,他们的生成式AI采用了RAG技术,承诺生成的每一条信息都有可追溯的来源,确保信息的可信度。SiftHub也采用了类似的技术,声称可以生成无幻觉的个性化响应,确保透明度和降低风险。

RAG的局限性

RAG是一个不错的技术,比如它可以提供生成内容所参考的资料的出处,或者不希望文件被拿走当训练数据时,也可以临时用用它。

而且,RAG在某些知识密集型场景中非常有用,比如,你需要从一堆资料中查出来上一届世界杯冠军得住是谁。通过查到关键词的部分,然后就很容易找到答案。

但是,RAG就是无法彻底杜绝模型的幻觉问题,这似乎就是Transformer架构本身的问题。

例如,在处理代码编写和数学等需要推理的任务时,RAG的表现就不那么理想了。在这些任务中,很难利用基于关键字的搜索查询找到所需的答案。

此外,即使在处理基本问题时,模型也可能因文档中的无关内容而“分心”,或者在某些情况下,模型会无视检索到的文档内容,依赖其自身参数提供的知识。

此外,RAG技术的实施起来也非常昂贵,因为需要将检索到的文档存储在内存中,而且还要处理增加的上下文信息,这对算力和电力都提出了更高的需求。

未来展望

目前有许多正在进行的研究致力于改进RAG技术,例如训练模型决定何时使用文档或不进行检索,或者提高对大规模数据集的检索效率,以及改善基于更抽象概念的搜索能力。

AI2的研究科学家David Wadden指出,当前的关键字检索对于查找解决抽象生成任务的相关文档效果不佳,需要进一步的研究来建立更好的文档表示和搜索技术。

总结

RAG技术虽然可以帮助减少模型的幻觉,但并不是解决所有AI幻觉问题的万能药。对于任何声称RAG能完全消除幻觉的厂商,用户都应保持警惕。

原文作者:Kyle Wiggers

本文在原文基础上有修改,仅做交流学习用。

0 阅读:9

数码好在云体验

简介:感谢大家的关注