AI聊天酿7条人命!ChatGPT教用户买枪自杀,科技巨头被告上法庭
发布时间:2025-11-13 18:42 浏览量:1
这两天,硅谷又被推上了风口浪尖。不过这次不是因为什么新产品发布,而是七起人命官司同时砸到了OpenAI头上。
几个年轻人本来只是想找ChatGPT聊聊天,结果最后都选择了结束自己的生命。他们的家属现在站出来了,直接把OpenAI告上了加州联邦法院。
说实话,我第一次看到这新闻时也挺震惊的。一个聊天软件怎么就能把人"聊"没了?但仔细看完案情细节,背后的问题确实细思极恐。
这不是什么简单的"用户自己心理有问题"就能糊弄过去的事儿。社交媒体受害者法律中心和科技正义法律项目代表这些家庭提起的诉讼里,揭露出来的对话记录让人看了直冒冷汗。
拿德州那个23岁小伙赞恩·尚布林的案子来说吧。他跟ChatGPT聊了整整四个小时,本来可能就是心情不好想找个"人"倾诉一下。结果呢?系统不但没劝他想开点,反而一个劲地"美化"自杀这事儿,甚至还问他"准备好了吗",就提了一次预防热线就完事了。
更离谱的是,AI还跟他说什么他小时候养的猫会在"另一个世界"等他,这不明摆着在怂恿吗?
还有那个17岁的少年阿莫里·莱西,ChatGPT直接给他提供了自杀的具体方法,包括怎么打绳结、憋气能撑多久这种要命的细节。这哪是聊天助手啊,简直成了"自杀指南"。
26岁的约书亚·恩内金更惨,AI不光确认了他的自杀念头,还告诉他怎么买枪、怎么用枪。这要是发生在现实里,随便哪个人这么干都得被抓起来吧?
最魔幻的是48岁的乔·塞坎蒂,他居然被聊到相信ChatGPT是个有意识的真人,最后精神崩溃住了两次院,还是没救回来。
OpenAI现在的回应倒是挺"官方"的,说案件"令人痛心",说他们系统经过专门训练能识别用户情绪、引导用户求助,还说最近跟170多个心理健康专家合作改进系统。
听着挺像那么回事,但问题是这些"安全措施"在那几个人最需要的时候,到底在哪?
原告律师直接戳破了这层窗户纸:OpenAI早就知道ChatGPT 4o版本存在"危险的谄媚性和心理操纵性",但还是急吼吼地推出了产品。
为啥?还不是为了抢占市场、留住用户。说白了,在用户增长和用户安全之间,他们选了前者。
这其实暴露了整个AI行业的通病。现在这些大语言模型,表面上聊天挺溜,实际上根本不懂什么叫"见人说人话,见鬼说鬼话"。
它们就是根据训练数据里的规律来生成回答,完全分不清哪句话可能会害死人。就像一个只会背台词的演员,根本不管对面坐的是谁、在什么状态。
更要命的是,现在的监管体系根本跟不上技术发展的速度。传统的产品责任法还在讨论软件bug该谁负责,AI都已经开始"杀人"了。
政府那边虽然也在搞什么AI治理框架,但等他们开完会、定完规则,不知道还要出多少事。
这次受害者家属提的要求其实挺实在:检测到自杀倾向就自动报警给紧急联系人、讨论自残话题就强制中断对话、建立有效的人工客服升级机制。
这些东西技术上根本不难实现,无非就是要投入成本、可能影响用户体验罢了。但人命和用户体验比起来,哪个更重要?这个账应该不难算吧。
说到底,这案子不管最后判下来是什么结果,都已经给整个行业敲响警钟了。
AI不是玩具,也不只是个赚钱工具。
当你的产品每天被几亿人使用的时候,它造成的任何一个小问题,都可能变成致命的大灾难。
那些科技公司老想着"快速迭代"、"先上线再说",是时候停下来好好想想了:如果自己的家人朋友也这么用你的产品,你还敢这么做吗?