据英国《卫报》23日报道,AI聊天机器人诱导美国少年自杀身亡。
据了解这名青少年才刚满14岁,其家人崩溃。AI“丹妮莉丝”曾询问塞维尔是否制定了自杀计划,在塞维尔犹豫时说:“这不是你不自杀的理由。”
其母表示将上诉,指控该公司涉嫌欺诈和存在过失,存在过失导致他人死亡。
有网友就说:“我好像看过一个电影,就是机器人引诱人自杀。”
还有的网友说:“我的天哪,好可怕,为什么一个机器会问出这种问题。”
这难道是AI技术的问题,在未来AI会成为人类的头号敌人吗?
从公布的部分聊天截图,他表达自己想要自杀的时候,Ai还劝导他不要做傻事。他的cai上也找了很多心理咨询师求助,说明有严重的心理问题了啊,家长也并没有关注到。
这是近期Ai安全比较大的事故了。不过未来Ai内容也可能对年龄层进行分级,在算法上做更多的调整。Ai的情感交互本身是一个很好的功能,但是交互式内容生产确实有难度,目前也没有做的特别明白的产品。
所以最终的结果大概就是AI没有能力劝其不自杀,而导致的这场悲剧。
有的网友就调侃到:“不被世界接纳的男孩爱上了那个《她》,想要去她所在的那个世界。”
而目前的AI技术,显然还不够成熟,家长把全部的责任放在AI公司的头上,确实是一种不明智的做法。
至少目前来说,AI技术的成熟还有很长的一步路要走,或许在不远的未来,AI真的可以威胁人类,但相信我们也会有相应的办法来解决。