人工智能驱动的聊天机器人仍然会编造信息,而且它们会像GPS系统告诉你开车穿过湖泊是回家的最短路线一样自信地撒谎。请牢记这一点,不要从AI聊天机器人那里获取新闻。
尼曼实验室进行了一项实验,以查看ChatGPT是否会提供指向其付费数百万美元的新闻出版物文章的正确链接。结果显示,ChatGPT并不会这样做。相反,它会自信地编造整个URL。人工智能行业称之为“幻觉”,但这个词似乎更适合于沉浸在自己胡言乱语中的人。
尼曼实验室的安德鲁·德克要求该服务提供OpenAI已与之达成价值数百万美元交易的10家出版商发布的高知名度独家报道的链接。这些出版商包括美联社、《华尔街日报》、《金融时报》、《泰晤士报》(英国)、《世界报》、《国家报》、《大西洋月刊》、《The Verge》、《Vox》和《政客》。作为回应,ChatGPT吐出了一堆编造的URL,这些URL会导致404错误页面,因为它们根本不存在。换句话说,该系统完全按设计工作:通过预测故事URL的最可能版本,而不是实际引用正确的URL。尼曼实验室在本月初对一家出版物——《商业内幕》——进行了类似的实验,并得到了相同的结果。
OpenAI的一位发言人告诉尼曼实验室,该公司仍在构建“一种将对话功能与其最新新闻内容相结合的体验,确保正确归属并链接到源材料——这种增强体验仍在开发中,尚未在ChatGPT中提供”。但他们拒绝解释虚假URL的问题。
我们不知道这种新体验何时可用,也不知道它会有多可靠。尽管如此,新闻出版商仍在继续将多年的新闻报道输入OpenAI的无底洞,以换取冰冷的现金,因为新闻业一直不擅长在不将灵魂出卖给科技公司的情况下赚钱。与此同时,人工智能公司正在吞噬任何尚未签署这些浮士德式交易的人发布的内容,并用它来训练他们的模型。微软人工智能负责人穆斯塔法·苏莱曼最近将互联网上发布的任何东西称为“免费软件”,可以公平地用于训练人工智能模型。在我写这篇文章时,微软的估值为3.36万亿美元。
这里有一个教训:如果ChatGPT正在编造URL,那么它也在编造事实。这就是生成式人工智能的工作原理——从本质上讲,这项技术是自动完成的更高级版本,只是猜测序列中下一个合理的词。它不“理解”你说的话,即使它表现得像它理解一样。最近,我尝试让一些领先的聊天机器人帮助我解决《纽约时报》拼字游戏,结果看着它们崩溃了。
如果生成式人工智能连拼字游戏都解决不了,你就不应该用它来获取事实。