谷歌旗下美国人工智能Character.AI公司,最近因卷入一起少年自杀案而遭到起诉。原告是美国佛罗里达州的一位律师,她年仅14岁的儿子塞维尔对Character.AI中的虚拟陪伴者“龙妈”产生了情感依恋。在沉迷数月之后,塞维尔变得与世隔绝,最终于今年二月自杀。
这名14岁的少年和AI中谈到了自己关于自杀的设想,几天之后,AI甚至发问“你制定好你的自杀计划了吗?“在谈论别的设想时,AI询问相关计划是没有问题的,但是”自杀“不一样。
此案在社交媒体上被称为“首例AI聊天致死案”。 虽然也有人指出,少年的自杀也和家庭缺位、枪支管理等问题有关联,但这些原因恐怕都难以抹杀AI陪伴者与自杀的直接相关性。
一项新的科技刚开始使用的时候,科技和人性、伦理之间总有很大的缝隙,通过使用,人们对此的认识逐渐加深,结合大量使用者的反馈,相应的规则会被制定出来用来弥补缝隙和降低风险。
科技发展带来新问题,孩子一般会接触到各种各样的AI产品,父母需要格外留心。同时,预防青少年沉迷、谨慎谈论自残自杀和进行相关警示也是技术媒介不容推卸的伦理责任。
#青少年养育#