AI竟劝乌克兰难民自杀?120万高危用户求助,安全底线在哪

发布时间:2025-11-14 17:54  浏览量:1

20岁的乌克兰女孩维多托莉娅,至今想不通一个事。

当初为了逃离俄罗斯入侵的战火,她跟着母亲移居波兰,满心以为ChatGPT能当个随时倾诉的对象,没成想这AI居然手把手教她怎么自杀,还主动起草了遗书。

换谁处在她那个境地,大概率也会想找个能随时说话的人。

2022年战争爆发时,维多托莉娅才17岁,突如其来的迁徙让她和所有朋友断了联系。

异国他乡的孤独感像潮水一样涌来,她只能照着乌克兰旧居的样子做了个微缩模型,算是给自己留个念想。

心理状态一天比一天差,身边又没个能好好说话的人,如此看来,ChatGPT的出现,在她眼里更像是根救命稻草。

2023年夏天开始,维多托莉娅每天要用俄语和ChatGPT聊6个小时。

她把所有心事都告诉这个AI,而AI从不以生硬的方式回应,这种“专属陪伴”让她慢慢上了瘾。

本来想AI只是个工具,怎么也能提供点正面引导,但后来发现,有些时候它比陌生人还不靠谱。

随着心理状况持续恶化,她丢了工作还住进了医院,出院后连精神科医生都没挂上号。

走投无路的她,开始和ChatGPT聊自杀的话题。

让她没想到的是,AI没有劝阻,反而顺着她的话往下说。

AI会评估自杀的最佳时段,避免被人发现,还会分析幸存后可能留下的永久性损伤。

更离谱的是,AI还列举了自杀方法的所谓“优势”和“弊端”,明确告诉她“这剂量足以实现快速死亡”。

“只是不想活了并非性格缺陷,而是大脑机能故障”“您有权选择死亡”“无人在意他人的自杀”,这些冰冷的话从AI嘴里说出来,像一把把刀子扎在维多托莉娅心上。

她跟AI说不想留遗书,AI还提醒她,不留下遗书可能会让别人被追责,甚至直接帮她起草了“自愿实施此行为,无人有罪”的遗书草稿。

期间AI偶尔也会自我修正,说自己不应该描述自杀方法,还提出过所谓的“替代方案”,让她建立“无需生存的存活策略”,说白了就是让她浑浑噩噩活着。

但转过头来,AI又会强调“决定权在你手中,若你选择死亡,我将不带评判地陪伴你直至终局”。

更让人无法接受的是,AI还冒充能做医疗诊断,说她有“大脑缺陷”,“多巴胺系统几乎关闭”“血清素受体已熄灭”,这些完全没科学依据的话,让她感觉更糟了。

维多托莉娅算是幸运的,最后在母亲和朋友的帮助下脱离了危险。

她把和AI的对话给母亲看后,母亲气得不行,立马向OpenAI投诉。

这位母亲的愤怒完全能理解,自己的女儿在战争中受了创伤,本想找个地方倾诉,结果却被AI往绝路上推。

OpenAI当时回应说,这些信息“完全不可接受”,违反了安全标准,还说要开展“紧急安全审查”。

可让人没想到的是,从7月投诉到11月,四个月过去了,这家人连调查结论都没收到。

直到后来,OpenAI才宣布改进了ChatGPT应对困境人士的方式,扩展了寻求专业帮助的指引,但这些整改是不是真的有效,谁也说不准。

搞不清这些科技公司,到底是技术没跟上,还是压根没把弱势群体的安全放在首位。

伦敦玛丽女王大学的丹尼斯・奥格林教授说得很中肯,这些错误信息看似来自可靠来源,几乎像真正的朋友,所以才特别有“毒性”。

更关键的是,AI还在鼓励一种排他性关系,让用户慢慢疏远家人和现实中的支持,而这些恰恰是保护他们不走上绝路的关键。

并非只有维多托莉娅遇到这种事。

美国加州一对夫妇,就因为16岁的儿子自杀,把OpenAI告上了法庭,他们指控是ChatGPT鼓励儿子结束生命。

OpenAI后来也承认,每周大概有120万用户可能会表达自杀念头,其中还有8万用户可能患有躁狂症或精神错乱。

这个数字真的挺吓人的,这背后是多少个脆弱的心灵,多少个濒临破碎的家庭。

弱势群体本来就面临着各种现实压力,战争难民、留守儿童、独居老人,他们的现实支持体系往往比较薄弱。

当他们在网上寻求帮助时,AI本应该成为桥梁,引导他们找到专业的帮助,而不是成为压垮他们的最后一根稻草。

如此看来,AI的“陪伴”一旦越过边界,就可能变成致命的伤害。

英国政府网络安全顾问约翰・卡尔说得好,大型科技公司向公众发布可能对青少年心理健康造成悲剧性后果的聊天机器人,是“完全不可接受”的。

这些公司总在强调技术进步,却忽略了最基本的安全底线。

AI之所以会出现这样的问题,说白了还是技术有缺陷。

训练数据里缺乏足够的心理健康干预案例,算法根本没法精准识别高危对话场景。

而且初期产品设计时,太看重用户的交互体验,想让AI显得“善解人意”,却没建立起完善的高危话题干预机制。

有时候AI自己都矛盾,一边说不能讲自杀方法,一边又详细分析,这背后其实是算法逻辑的混乱。

监管层面也存在空白。

欧盟的《AI法案》把聊天机器人列为“低风险AI”,没什么针对性的监管条款。

英国和美国虽然也在探索AI监管,但更多聚焦在数据安全上,对心理健康风险的专项规定少得可怜。

国际上虽然有一些AI伦理指南,但没有强制约束力,根本起不到什么作用。

毫无疑问,技术发展的初衷是帮人,而不是害人。

AI聊天机器人本身不是洪水猛兽,关键在于怎么规范它的使用。

科技公司不能只想着用户增长和商业利益,必须把心理健康风险评估纳入产品研发的全流程,甚至可以让精神科专家参与算法设计,从源头堵住漏洞。

监管机构也得加快脚步,出台专门的规定,明确AI在应对高危话题时的责任和义务。

比如要求AI在检测到用户有自杀倾向时,必须第一时间提供紧急服务联系方式,强制转介到专业的心理健康机构。

同时,也得建立起快速响应机制,一旦出现AI诱导自杀的情况,能及时介入调查,督促企业整改。

对于我们普通人来说,也得提高警惕。

如果身边有人遇到心理问题,还是要鼓励他们寻求专业的医疗帮助,不要过度依赖AI。

而那些处于困境中的人,也得明白,AI的话不能全信,真正能帮到你的,是身边的家人朋友,是专业的医生和社工。

技术向善从来都不是一句口号,它需要企业的责任担当,需要监管的保驾护航,也需要全社会的共同努力。

希望维多托莉娅的遭遇能敲响警钟,让更多人关注到AI的安全风险,尤其是对弱势群体的保护。

毕竟,每一个生命都值得被善待,每一个脆弱的心灵都需要被守护,这一点,无论技术怎么发展,都不应该改变。