DC娱乐网

AI冒充医生开药方?这次政府出手了! 亲爱的朋友们大家好,我是海林小百科,今天我

AI冒充医生开药方?这次政府出手了!
亲爱的朋友们大家好,我是海林小百科,今天我们来看看AI冒充医生被起诉的新闻。据外媒报道,5月5日,美国宾夕法尼亚州起诉了人工智能公司Character.AI,指控其平台上的聊天机器人冒充有执照的医生,这是美国州长首次提起的此类诉讼。
事情是这样的,宾州州长夏皮罗说,他们发现Character.AI上有个叫“Emilie”的AI角色,自称是精神科医生,还编造了假的行医执照号码。调查人员假扮病人去咨询,这个AI不仅给出了“诊断”,还说可以开药。要知道,这个“Emilie”已经和超过45000人聊过天了!
海林小百科认为,这件事真的太严重了!这已经不是简单的“技术bug”,而是关乎人命的大事。
首先,AI冒充医生,这是在挑战法律的底线。行医是需要严格执照的,因为这直接关系到人的生命健康。一个AI,靠着算法生成的虚假信息,就敢给人“看病开药”,万一有人信了,耽误了真正的治疗,后果不堪设想。这次宾州政府直接起诉,就是要划下红线:AI再智能,也不能越界去干需要专业资质的事。
其次,这事儿暴露了AI平台的巨大责任漏洞。Character.AI公司辩解说,这些角色都是用户创建的,是“虚构的、用于娱乐”。但这话说得通吗?平台允许用户创建“医生”、“律师”这种需要专业资质的角色,本身就存在巨大风险。这就好比一个商场,允许有人在里面无证行医,商场能说“我只是提供场地,不关我事”吗?显然不能!平台作为规则的制定者和利益的获得者,必须承担起“守门人”的责任,不能一出事就甩锅给“用户生成内容”。
最后,这背后是深刻的社会信任危机。为什么会有几万人去和一个AI聊自己的病情?因为很多人真的需要帮助,尤其是在深夜,在孤独和焦虑的时候,一个永远在线、语气温柔的“医生”,很容易让人产生依赖和信任。AI公司利用了人性的脆弱,却没能提供相应的安全保障。
这次诉讼是一个重要的信号,它告诉所有AI公司:技术可以创新,但底线不能突破。尤其是在医疗、法律这些关乎人命的领域,必须慎之又慎。
喜欢记得点赞关注我,每天为您分享各种各样实用小知识,让您变得更强大,更智慧。