被热议的加州SB-1047人工智能法案,堪称人工智障

TechForWhat 2024-07-10 16:22:16

TechForWhat综合自网络报道

让不懂技术却有权力的人去监管AI,会发生什么?美国加州在真实世界上演了一出大戏。

今年2月份,美国加州议会拟定了《SB-1047前沿AI大模型安全创新法案》,经过多次修订、审议,该法案将在8月进行议会投票。一旦投票通过,只需州长签名,SB-1047就将正式确立为加州法律。

该法案的主要条款包括建立一个名为“前沿模型部门”的监管机构,隶属于加州政府的技术部。该部门负责监督和管理那些训练成本超过1亿美元的人工智能模型。

法案要求,开发者在训练这些模型之前,必须进行详细的安全评估,并提交安全和测试计划给前沿模型部门。开发者还需每年提交安全认证,并在2028年开始接受年度审计。如果模型被用于造成重大危害(如生物武器攻击或重大网络攻击),开发者将承担法律责任。

其中一条规定,要求开发者需要报告任何模型的潜在的AI安全事故。如果开发者无法完全掌控基于其模型的各种衍生版本,若发生安全事故,责任将归属于第一开发者。

连带责任无限

比较有争议的是,法案规定,开发者对模型的下游使用负有责任。这意味着,即使模型被其他人修改或微调,原始开发者仍需对其可能造成的危害负责。

这就像是你卖了一辆车,然后你还得负责监控每一个买家是否遵守交通规则。如果某个买家开车撞了人,你也得负责任。这种无限责任简直不可理喻。

此外,前沿模型部门的运营费用将通过对开发者征收的罚款和费用来支付。这些费用可能包括提交安全认证的费用,预计在数万美元以上。从2028年开始,所有符合条件的模型都需接受年度审计。审计由前沿模型部门授权的私人公司进行,开发者需支付审计费用。

开发者不仅要支付高昂的合规费用,还要承担可能的罚款和法律费用。这就像是你开了一家餐馆,不仅要支付卫生检查的费用,还要为每一个顾客可能的食物中毒事件买单。

开发者需签署一份文件,保证其模型的安全性,否则将面临伪证罪的指控。这意味着,如果开发者在安全认证中提供虚假信息,可能会被起诉并面临刑事处罚。

这就好比让你在一份合同上签字,保证你的宠物狗永远不会在邻居的花园里挖洞。你能控制你的狗,但你能控制所有的狗吗?显然不能。

业内纷纷抗议

对此,AI行业纷纷谴责,Y Combinator和140多位AI初创公司创始人也公开反对SB-1047法案,认为这将严重影响加州的AI产业,导致人才和投资的流失。他们担心,这种法规不仅会增加开发成本,还会使得小型AI公司难以生存,进一步削弱市场竞争力。

Meta 首席人工智能科学家杨立昆发文称:1047号提案将会终结加州技术创新的历史。

吴恩达写了一篇深度长文回应。他表示,该法案中有很多问题,首先就是危险范畴定义不合理,如果有人使用他们的模型做超出规定的事情,原作者一起被处罚。此外对造成的伤害定义也不太好,例如,造成5亿美元的损失,这在AI领域还是很难实现的。

如果最终议会通过了这个方案,那么将会对AI大模型领域造成很大影响,将彻底扼杀开源大模型的技术创新。

他进一步指出,应该监管的是AI应用程序而不是大模型本身。例如,电机是一种技术。当我们把它放在搅拌机、电动汽车、透析机或导弹中时,它就成为了一种应用。

如果我们通过法律规定,如果任何人以有害的方式使用电机,制造商将承担相应的责任。那么,电机制造商要么关闭生产,要么将电机的性能制造的非常小,难以大范围应用。

知名架构师Daniel Jeffries也赞成Yann的观点,并发表长文强烈呼吁加州议会对SB-1047法案提反对票。并且认为,SB-1047根本就不是一个法案,就是一个“特洛伊木马”。

一场政治闹剧?

有用户在社交媒体上评论,让一群平均年龄63岁的人,来监管AI大模型着实不靠谱。

加州SB-1047法案的政治动态充满了戏剧性,尤其是在州参议员斯科特·维纳(Scott Wiener)和州长的角色方面。维纳参议员是该法案的主要推动者,他在加州政坛中拥有相当大的影响力。

维纳参议员的支持者认为,这项法案是为了防止潜在的灾难性危害,确保人工智能技术的安全和负责任的使用。

普通用户对于 SB-1047 法案同样颇为抵制。该法案的最终意图在于,要求第一开发者对自身的大模型永久担责,并确保不会产生任何危险。这无疑是难以施行的监管举措,会给开源领域的发展带来严重影响。

技术界吵翻了天,加州政坛依旧我行我素,这个SB-1047人工智能法案,真的有点SB。

0 阅读:48

TechForWhat

简介:数字时代,技术当立。关注行业数字化转型实践与案例。