DC娱乐网

美法警持枪闯入厨房:仅凭AI识别100%匹配,无辜祖母瞬间沦为头号通缉犯

安吉拉·利普斯 (Angela Lipps) 在田纳西州卡斯县监狱 108 天,之后出席了北达科他州的听证会《卫报》最新

安吉拉·利普斯 (Angela Lipps) 在田纳西州卡斯县监狱 108 天,之后出席了北达科他州的听证会

《卫报》最新的一则通报撕开了高科技司法的温情面纱:在田纳西州,一名拥有五个孙辈的祖母在自家厨房被持枪逮捕,理由仅仅是北达科他州的一台服务器判定她“看起来像个劫匪”。

50岁的 Angela Lipps 站在厨房里。

烤箱预热到 180°C。

窗外是田纳西州午后静谧的街道,阳光切割着地板。

然后门被撞开了。

五名全副武装的联邦法警,带着冰冷的枪口和一张印着“100% 匹配”的纸。

那一刻,Angela 感觉心脏被重锤击中,耳鸣盖过了周遭的一切。

她反复重复:你们找错人了,我这辈子没去过北达科他州。

警察没有抬头。

他们只盯着屏幕上的绿色方框。

在 AI 的逻辑里,她不是祖母,是编号为 #8421 的银行诈骗犯。

Angela Lipps在田纳西州的家中被捕,面临与她从未去过的州犯罪有关的刑事指控

面部识别技术并非在“看”人,而是在进行复杂的卷积神经网络(CNN)运算。

它将人脸分解为瞳孔距离、鼻梁弧度、下颌线走势等数千个特征点,并将这些生物特征压缩为一组由数百个维度组成的“特征向量”。

这种技术在理想环境下表现卓越,但在处理低质量的监控录像时,会产生严重的“噪声”。

当 Angela 的证件照与模糊的银行监控影像在概率空间里重合,算法划下了等号。

它无法感知一千两百英里的物理隔绝,它只识别像素构成的几何相似性。

她被锁进牢房。

这一锁,就是一百零八天。

入狱的第一周,她是愤怒的,坚信法律会纠正这个荒诞的 Bug。

入狱的一个月,她是恐惧的,引渡程序的冰冷让她意识到自己正被庞大的行政机器吞噬。

入狱的第三个月,她是绝望的。

由于无法按时缴纳账单,她的房子被查封,汽车被拖走。

甚至相伴多年的宠物犬也因为无人照看,被送往收容所处死。

她坐在囚室铁床上,感受到了身份的彻底抹除:算法杀死了我的生活,而我甚至无法直视它的眼睛。

利普斯在接受采访时表示,由于她在狱中无法支付账单,她失去了房子、汽车,甚至她的狗 (WDAY)

这并非个例。

此前,底特律的 Robert Williams 与 Porcha Woodruff 都曾因类似的算法偏差被误捕。

根据美国国家标准与技术研究院(NIST)发布的《面部识别供应商测试报告》(NISTIR 8280),该研究对全球 189 个软件算法、共计 1840 万张图像进行了深度分析。

数据证实,在“一对多”的搜索比对中,针对老年群体和特定族裔的错误识别率(FMR),比成年白人高出 10 到 100 倍。

算法在面对非主流样本时,其“置信度分数”带有系统性的底层偏差。

麻省理工学院研究员 Joy Buolamwini 在其著名的《性别阴影》(Gender Shades)研究中指出:算法不是神谕,如果训练数据库中样本分布不均,AI 就会在这些领域表现得像个睁眼瞎。

这种“技术暴力”引发了法律界与科技界的剧烈震荡。

卡内基梅隆大学的 AI 伦理专家指出,目前大多数警用识别系统属于“黑箱模型”,其判别权重甚至连开发者都无法完全溯源。

美国公民自由联盟(ACLU)法律顾问 Nathan Wessler 认为,这暴露了“自动化顺从”(Automation Bias)的法律风险——即执法人员倾向于无条件信任机器的输出。

他主张,AI 的匹配结果在法律上应仅被定义为调查线索,而非逮捕的“合理理由”。

直到 2025 年平安夜,真正的嫌疑人落网。

那是个比她年轻三十岁的女性,除了性别,两人几乎没有共同点。

检察官撤诉了。

没有赔偿,没有道歉。

只有一句轻飘飘的:抓错人了。

她站在空荡荡的旧屋前。

算法依旧在机房里嗡嗡作响。

它不觉得痛,它只负责输出概率。

技术进化的脚步不会因眼泪停滞,但制度的补丁必须跟上。

如果法律不能强制要求 AI 结果与地理围栏、银行流水进行交叉印证。

如果数字误伤没有相应的补偿机制。

那么每个人都离监狱只有一次“像素重合”的距离。

我们正进入一个预设犯罪的时代。

人类不再是复杂的个体,而是被稀释成屏幕上跳动的百分比。

只要你的照片还在数据库里,我们所有人,都是在算法沙漏里屏息以待的幸存者。(全文完,感谢阅读,如果喜欢可以关注我)

格陵兰冰盖下挖出百万年前“绿肺”:一个离崩溃仅差1.2°C的真相​