AI不像人类那样思考。别再像那样说话了! 最近来自AWS和Meta的事件告诉我们,我们应该已经知道的事情:自主代理在你最不想让他们做的时候会忽略指令。这该怎么办。 自主代理非常认真地对待他们名字的第一部分,不一定按照人类告诉他们的去做或不做。但情况比这更复杂。生成(genAI)和代理系统的运行方式与其他系统(包括旧的AI系统)和人类截然不同。这意味着技术用户和决策者如何表达指令,以及这些指令放在哪里,可以对结果产生重大影响。人工智能系统已经发展出无视指令和越过护栏的历史。 但本月看到了两个强有力的例子,说明两个超级规模公司——AWS和Meta——是如何被它们与这些复杂的AI系统的通信方式所烧伤的。第一个涉及12月影响AWS的事件,其中一名工程师不知道自己的权限,因此不知道他的代理系统能够做什么。代理删除并重新创建了一个关键的AWS环境。AWS拒绝透露系统询问了什么,以及工程师在批准请求时说了什么。 Meta混乱案件更可怕,因为肇事者/受害者不是某个无名的AWS工程师,而是Meta超级智能实验室人工智能安全与对齐主任。正如在X上的一篇帖子中描述的那样,没有什么行动前确认,并看着它快速删除你的收件箱更能让你失望的了。ai新变化 ai误区
