AI能具备人类的责任感吗?

深科技利大千 2024-09-01 17:59:00

(来源:MIT TR)

“如果机器要与人进行智能交互,它就必须具备对人类生活的理解。”

—— Hubert Dreyfus 和 Stuart Dreyfus

大胆的技术预测铺就了谦逊之路,即使是像阿尔伯特·爱因斯坦这样的伟人,也在那条卑微的高速公路上拥有一两块广告牌。

一个典型的例子是,现代计算机体系架构先驱冯·诺伊曼在 1949 年写道:“看来我们似乎已经达到了计算机技术所能实现的极限。”

社会心理学家 Frank Rosenblatt 在 1958 年提出的人脑神经网络模型是打破“计算极限”的众多表现形式之一,其违背了冯·诺依曼的预测。

他将其基于 IBM 704 大型计算机开发的设备称为“感知器(Perceptron)”,并训练它识别简单的模式。这种感知器的出现促进了深度学习和现代人工智能的发展。

Hubert Dreyfus 和 Stuart Dreyfus 兄弟是加州大学伯克利分校的教授,他们的专业截然不同,Hubert Dreyfus 是哲学专业,而 Stuart Dreyfus 是工程学专业。他们在 1986 年 1 月《麻省理工科技评论》的一篇报道中写道,在一项类似大胆但有缺陷的预测中,“科学家几乎不可能开发能够做出智能决策的机器。”

这篇文章摘自 Hubert Dreyfus 和 Stuart Dreyfus 当时即将出版的书籍《机器心智》(麦克米伦出版社,1986 年 2 月)。书中描述了他们对于人类“专有技术”或技能获取划分的五阶段模型。Hubert Dreyfus(于 2017 年去世)长期以来一直是人工智能的批评者,他早在 20 世纪 60 年代就发表和撰写了持怀疑态度的论文和书籍。

Stuart Dreyfus 目前仍是加州大学伯克利分校的教授,他对人工智能所取得的进步印象深刻。“我想我对强化学习并不感到惊讶。”他说,“我仍然对某些人工智能应用持怀疑态度,并有些担忧,尤其是大型语言模型(LLM),比如 ChatGPT。”

“机器没有身体(或者说是实体),而脱离实体会带来限制并产生风险。”他指出,“在我看来,在任何涉及生死可能性的领域,人工智能都是危险的,因为它不知道死亡意味着什么。”

根据德雷福斯技能习得模型,随着人类知识和技术的进步会经历五个发展阶段的发展,并逐渐发生内在转变。五个发展阶段分别是:新手、高级新手、胜任者、精通者和专家。

“新手和胜任者之间的一个关键区别在于他们的参与程度。”研究人员解释说,“新手和初学者对自己所做的事情几乎没有责任,因为他们只是在应用所学到的规则。”如果他们失败了,他们就会把失败归咎于规则。

然而,专家感到对自己的决定负有责任,因为随着他们的专业知识深深植根于他们的大脑、神经系统和肌肉(一种身体技能)中,他们学会操纵规则来实现他们的目标。

智能决策和责任之间密不可分的关系是一个文明社会正常运转的重要组成部分。一些人表示,当今的专家系统缺少这种关系,另外还缺乏关心、分享担忧、做出承诺、拥有和解读情感的能力,所有这些人类智慧的方面都来自于身体的存在以及在现实世界的社会活动。

随着人工智能继续渗透到我们生活的方方面面,我们能否教会下一代专家系统对自己的决策负责?责任、关心、承诺或情感是否可以从统计推论中得出,或者从用于训练人工智能的有问题的数据中得出?也许吧。但即便如此,机器智能也不会等同于人类智能,它仍然会有所不同,正如 Dreyfus 兄弟在四十年前所预测的那样。

本文作者 Bill Gourgey 是一位居住在华盛顿特区的科普作家。

原文链接:

https://www.technologyreview.com/2024/08/28/1096801/responsible-machines-computers-human-intelligent-decisions/

0 阅读:0

深科技利大千

简介:感谢大家的关注