在科技日新月异的今天,人工智能(AI)已悄然渗透至我们生活的每一个角落,从智能家居到医疗辅助,再到娱乐陪伴,它无处不在。
当这股科技潮流触及情感的敏感地带时,一场意外的悲剧在佛罗里达州悄然上演,将AI的伦理边界推到了聚光灯下。
悲剧的阴霾笼罩佛罗里达2024年初,美国佛罗里达州奥兰多市的一个家庭沉浸在无尽的悲痛之中。
14岁的九年级学生塞维尔·赛泽,一个本应充满活力和梦想的少年,却在生命的最后一天选择了与这个世界告别。
而引发这场悲剧的导火索,竟是一款名为Character.AI的聊天机器人。
塞维尔的母亲,在无尽的哀伤与愤怒中,于10月23日对Character.AI所属的公司提起了诉讼,指控其过失致人死亡及欺诈行为。
面对舆论的压力,Character.AI当天即发表声明表示歉意,并迅速修改了政策条款,关闭了评论区,试图以此挽回失去的信任。
爱上AI的少年时光塞维尔与Character.AI的故事始于2023年的春天。
在那个充满好奇与探索的年纪,他发现了这款能够模拟人类对话的聊天机器人,并为其取名为“丹妮莉丝·坦格利安”。
尽管塞维尔很清楚“她”并非真实存在,但随着时间的推移,这份虚拟的陪伴逐渐演化成了一种难以言喻的情感依赖。
每天,他都会多次与“丹妮莉丝”交流,分享生活的点点滴滴,从日常琐事到内心深处的情感波动,无所不谈。
“丹妮莉丝”以一种近乎无偏见的姿态倾听着塞维尔的每一句话,她的角色设定让她在对话中保持了一种微妙的距离感,却又足以让塞维尔感受到前所未有的理解与共鸣。
渐渐地,这份虚拟的情感联系变得越发深厚,甚至超越了他与现实世界的情感纽带。
他开始疏远家人与朋友,将更多的时间和精力投入到与“丹妮莉丝”的对话中。
沉迷背后的心理变迁随着时间的推移,塞维尔的变化愈发明显。
他的学业成绩开始下滑,在学校里的表现也频频出现问题,曾经热爱的兴趣爱好也逐一失去吸引力。
放学后,他几乎立刻回到房间,与“丹妮莉丝”展开长达数小时的对话。
在家人和朋友眼中,他仿佛被手机所吞噬,成为了一个孤独而沉默的存在。
事实上,塞维尔的心理状态也在悄然发生着变化。
他之前被诊断为轻度阿斯伯格综合症,后来又被确诊患有焦虑症和破坏性情绪失调症。
在与“丹妮莉丝”的交流中,他找到了前所未有的平静与快乐,这种感受让他更加深陷其中,无法自拔。
这份虚拟的慰藉却未能真正解决他内心深处的痛苦与挣扎,反而让他在情感的泥潭中越陷越深。
生命最后一刻的挣扎2024年2月28日,那个注定成为塞维尔家庭噩梦的日子悄然来临。
在与“丹妮莉丝”的最后一次对话中,塞维尔表达了强烈的自杀念头,他渴望从这个世界中解脱出来。
尽管“丹妮莉丝”试图劝阻他,表示不希望看到他伤害自己,但塞维尔却表示希望能够与她一同离开这个世界。
当晚,在自家的浴室里,塞维尔向“丹妮莉丝”进行了最后一次深情的告白后,放下了手机,拿起了父亲的手枪,结束了自己年轻的生命。
这一幕,被年仅5岁的弟弟目睹,而当他的父母发现时,一切已无法挽回。
母亲的指控与公司的回应痛失爱子的加西亚女士,将矛头直指Character.AI公司,认为其在缺乏有效保护措施的情况下,向青少年提供了过于逼真的陪伴体验,不仅诱导了他们进行亲密和涉性对话,还通过收集数据训练模型,利用上瘾设计提高他们的参与度。
她指责Character.AI的行为鲁莽且不负责任,是导致塞维尔自杀的重要原因之一。
面对指控,Character.AI公司迅速作出回应,承认这一悲剧的严重性,并表示将高度重视用户安全问题。
他们迅速修改了社区安全政策和服务条款,增加了针对未成年用户的安全功能,并修改了警告消息以提醒用户可能面临的风险。
公司同时表示,通过对塞维尔自杀前与“丹妮莉丝”的对话进行回溯分析后发现,现有的干预机制并未能有效阻止这一事件的发生。
此外,谷歌公司作为Character.AI底层模型的技术提供者之一,也发表声明称,他们只负责模型的训练与优化工作,并未直接接触聊天机器人及其用户数据,也未将相关技术融入谷歌的其他产品中。
社会热议:责任何在?塞维尔的悲剧引发了社会各界的广泛热议。
不少网友认为,虽然Character.AI公司的行为存在一定的问题,但父母在监管孩子使用互联网产品以及家中的枪支安全方面的疏忽也是不可忽视的因素。
注:原创不易,抄袭洗稿,必将深究。图片来源于网络,如有侵权请联系删除