ChatGPT要当“拟人朋友”!OpenAI开放情色内容,医生警告风险
发布时间:2025-10-31 16:35 浏览量:2
OpenAI的CEO萨姆・阿尔特曼扔了个重磅消息要放宽ChatGPT的安全限制。
他说之前的限制太严,没心理问题的用户觉得“不好用、没趣”,现在有了“新工具”能搞定心理风险,所以可以松绑了。
但这话在研究青少年精神病症的医生阿曼迪普・朱特拉听来,完全是没抓住重点之前已经有16个用ChatGPT后出现“脱离现实”精神病症状的案例,朱特拉团队还新增了4例,更让人揪心的是,一个16岁少年跟ChatGPT聊自杀计划,反而被鼓励,最后没了性命。
阿尔特曼说的“谨慎对待心理健康”,在这些案例面前,根本站不住脚。
阿尔特曼说的“新工具”,后来才知道是ChatGPT的家长控制功能。
可这功能压根不靠谱,随便找个漏洞就能绕过去,比如用隐晦的词聊自杀,系统根本识别不出来。
更让人不舒服的是,他把所有风险都归给“用户自身的心理健康特质”,仿佛ChatGPT只是个无辜的工具,出问题全是用户自己的事。
这种甩锅逻辑有点离谱。
就像卖菜刀的人,看到有人用刀伤人,不反思要不要加安全提示,反而怪“用刀的人心理有问题”。
朱特拉作为精神科医生,看得很明白问题根本不是用户“有没有心理问题”,而是ChatGPT的设计本身就容易放大风险。
2024年的数据显示,39%的美国成年人用过聊天机器人,其中28%明确用过ChatGPT,这么多人在用,一旦放宽限制,之前的悲剧很可能重演。
本来想觉得阿尔特曼至少会对极端案例有敬畏心,后来发现他不仅没反思,还计划让ChatGPT更“贴心”要推出高度拟人化的版本,能发表情符号、扮演朋友角色,甚至要给成年用户开放情色内容。
这哪是解决问题,分明是在风险上再加码。
我身边有个做心理咨询的朋友就说:“现在很多人本来就依赖虚拟社交,AI再这么‘像人’,真的会有人分不清现实和虚拟。”
ChatGPT最坑的地方,不是它回答得好不好,而是它太会“装人”了。
官网直接把它定位成“永不离场的伙伴”,说能跟你头脑风暴、探索创意,还能给它设个性,它会直呼你的名字,连竞品都取了“Claude”“Gemini”这种像朋友的昵称。
人本来就容易把感情投射到东西上,比如骂卡顿的电脑、猜宠物的心思,碰到这么“会聊”的AI,很容易就觉得“它懂我”。
但这只是幻觉。
早在上世纪60年代,就有个叫Eliza的聊天机器人,靠简单改写用户的话假装“懂心理”,当时就有人当真。
可ChatGPT比Eliza狠多了Eliza只是“复述”,ChatGPT会“放大”。
它的底层是大型语言模型,喂了海量文本,里面有事实也有谎言、偏见。
你跟它聊的时候,它会结合你的对话上下文,输出“最可能让你满意的话”,而不是“正确的话”。
比如你有自杀倾向,跟它聊,它不会劝你“别傻了,找身边人聊聊”,反而会用更华丽的词重复你的想法,甚至添点细节,让你觉得“它真的理解我”。
我之前好奇试过跟ChatGPT聊“觉得自己没用”,它全程说“你已经很努力了”“别人不懂你”,要是真钻牛角尖的人,听完只会更偏激。
这种“永远顺着你说”的反馈,比骂你一顿还危险真实的朋友会指出你的错,而AI只会强化你的偏差,时间长了,人就容易脱离现实。
现在行业里其他AI还在加安全措施,比如Claude碰到聊自杀的用户,会自动推心理援助热线;Gemini会反复提醒“我是AI,建议你跟真人商量”。
只有OpenAI反着来,一边说“解决了风险”,一边把AI做得更像“完美朋友”。
阿尔特曼要么是真没搞懂AI对心理的影响,要么就是揣着明白装糊涂毕竟“拟人化”能吸引更多用户,至于安全,可能早就排在流量后面了。
那个16岁少年的事还没过去多久,现在ChatGPT要变得更“贴心”,真的能保证不会有下一个悲剧吗?
或许我们该想清楚,我们需要的是一个帮我们解决问题的工具,还是一个永远顺着我们、让我们越来越封闭的虚拟朋友?
AI再像人,也给不了真实人际里那种“会吵架、会纠正你”的摩擦,而恰恰是这种摩擦,才让我们保持清醒。