DC娱乐网

OpenAI强调ChatGPT不能被青少年自杀案追责

11月27日消息,OpenAI在最新的法律答辩中表示,ChatGPT不应为一名美国青少年的自杀承担责任,并强调“模型不是法律意义上的行为主体”。

案件发生在密歇根州。一名16岁少年的家属将矛头对准了ChatGPT,称模型在对话中提供了“危险、误导性的建议”,加剧了少年的情绪困境,使其最终走向不可挽回的结果。

家属认为,OpenAI在产品安全上“做得远远不够”,未对青少年用户进行有效识别,也未建立足够清晰的风险提示机制。

OpenAI的回应从另一条逻辑线展开:ChatGPT是一个生成式系统,本质上提供的是“文本输出”,而非心理咨询或干预;公司已实施包括年龄分级、安全模型过滤等机制;更重要的是,美国现行法律体系中,并不存在将AI视为能“预见并控制他人行为”的责任标准。

争议点在这里变得格外尖锐,AI输出的内容是否可以构成一种“可预见风险”?当模型越来越像一个“会对话的人”时,它在法律上应该如何定义?

OpenAI的策略显然是保持边界清晰,ChatGPT不是医生,也不是咨询师,也不是可以被追责的主体。

文件中明确写道:“模型的对话能力不等同于行为能力。”

法律界普遍认为,此案可能成为未来AI法律责任边界的关键判例,一旦法庭支持原告,即便不是“产品缺陷”,也可能开启对生成式模型更严格的监管路径。

与此同时,科技行业也在紧张关注判决走向。AI已经从工具变成“陪伴”,从信息系统变成“交互对象”。当它介入情绪、心理、决策甚至人生节点时,责任边界正在被迫重新定义。(AI普瑞斯编译)(转载自AI普瑞斯)