名人聊天机器人?科技巨头带头“侵权”,多位国际巨星接连沦陷
发布时间:2025-09-05 15:07 浏览量:1
2025年8月底,路透社爆出个事:MetaPlatforms没经过允许,就用了泰勒・斯威夫特、斯嘉丽・约翰逊这些国际名人的名字和样子,做了几十个用来社交互动的“调情”聊天机器人。
这些机器人不只是模仿名人的身份,连跟用户聊天的内容都故意设计得带点挑逗、亲近的感觉,目的很明确,让用户更愿意留在平台上。
说实话,这事一出来,“形象权”这个之前只在法律圈常提的词,一下子成了大家讨论的热点,更让人觉得,硅谷那些科技公司“先干了再说,出事再道歉”的路子,根本就是没把个人权利当回事。
本来想只说Meta这一件事,但后来发现,它不是第一个这么干的。前不久OpenAI也出过类似的麻烦,主角还是斯嘉丽・约翰逊。当时OpenAI推了个新版ChatGPT语音助手叫“Sky”,那声音跟约翰逊在电影《她》里给AI配的音特别像。
约翰逊后来发声明说,OpenAI之前找过她两次想合作,她都拒绝了,结果对方还是用了个跟她声音“几乎一样”的声源,这让她又震惊又生气。
最后OpenAI虽然停了那个声音的使用,还说没模仿,但明眼人都看得出来,这些AI公司好像觉得,不管是人的声音、样子,还是身上独有的特质,只要能帮产品吸引用户,不经过同意也能随便用。
把这两件事放一块儿看,能发现个挺让人担心的行业毛病。这些顶尖AI公司顶着技术更新和抢市场的压力,好像把名人的形象权当成了“灰色地带”,先用名人的影响力拉用户、测试产品,真有人抗议了,就赶紧撤掉,再拿“技术出错”“违反内部规定”当借口摘干净。
老实讲,这种做法看着能躲开直接的法律冲突,其实是在钻法律的空子。他们就是想在法院还没明确说法之前,先把名人身份能带来的商业价值捞到手。
法律界人士说,这种行为其实已经碰了名人的形象权,这个权利在美国普通法和很多州的成文法里都有规定,核心就是每个人能自己决定自己的名字、样子、声音这些身份标识,能不能用来赚钱。
Meta做这些名人聊天机器人,就算没直接收钱,可它是为了让平台更活跃、用户更愿意用,这本质上就是商业用途,跟没经过允许就用名人代言没区别。
2025年这年,生成式AI技术跑得特别快,可法律条文更新得却慢很多。形象权这个概念虽然早就有,但怎么用到AI生成的、还能跟人深度聊天的“数字人格”上,现在法律还没说清楚。要是真闹到法院,得争论好多复杂问题,比如AI生成的形象算不算“改造性使用”?
一个能模仿名人语气的聊天机器人,算不算艺术创作或者评论,能不能受言论自由保护?不过很多法律学者都觉得,Meta这事想靠“改造性使用”脱责,怕是很难。
这些机器人不是用来搞艺术或者评论社会的,主要就是模拟跟名人本人聊天,目的是让用户一直用平台,这更像是没授权的商业代言,不是什么创造性表达。真要是判了,Meta不光可能要赔很多钱,这个判决还会给整个AI行业立个规矩,以后怎么用公众人物的数据,得有明确的说法。
更让人不放心的是Meta内部的管理问题。这家公司一边公开说,不允许用户做模仿真人的AI角色,尤其是没经过同意的情况;另一边,自己的员工却明目张胆违反这个规定。搞不清Meta这些政策到底是真为了保护个人权利,还是只是做给外人看的样子?
要是连自己员工都能无视规则,那普通用户滥用这些AI工具的风险,又怎么控制?这事儿不光让Meta的公信力打了折扣,也让人怀疑,它到底有没有能力负责任地搞AI技术开发和使用。
其实Meta这事,最后指向的是个跟每个人都有关的问题:在数字世界里,我们自己的身份到底归谁管?等AI能把我们的样子、声音、说话风格,甚至思考方式都模仿得特别像的时候,怎么才能不让自己的身份被人随便拿去赚钱,或者恶意利用?
名人因为商业价值高、受关注多,先成了这种冲突的“前线”,但他们遇到的麻烦,其实是在提醒普通人,以后我们可能也会碰到这种事。
随着AI技术越来越普及、越来越便宜,要做个任何人的“数字分身”会越来越容易。这不光可能导致诈骗、假消息、坏名声,甚至可能让我们都分不清什么是真的、什么是假的。
如此看来,让Meta这些科技巨头承担责任,特别重要。
这不是只保护几个名人的商业利益,而是要在AI时代,给个人身份和尊严划一条不能碰的线。监管部门、立法的人,还有整个社会得赶紧行动起来,弄出一套清晰、有力,还能跟上技术发展的法律框架,说清楚AI用个人身份特征的边界在哪儿。
同时,科技公司也得负起更重的伦理责任,把尊重用户权利放在商业利益前面,靠透明的政策和有效的内部管理,确保技术是为了人类好,而不是侵犯我们作为个体的基本权利。老实讲,这场围绕“数字分身”的争论,才刚刚开始呢。
之前还觉得,可能只有名人才会遇到身份被AI克隆的问题,但后来发现不是这样。随着AI技术成本下降,普通人的“数字分身”也可能被滥用,比如有人用AI模仿家人的声音骗钱,或者用AI生成的样子造谣。
毫无疑问,现在就得把规则立好,不能等出了更多麻烦再补救。Meta这些公司要是还抱着“先做后道歉”的想法,不光会惹上法律麻烦,还会失去用户的信任,这对他们长远发展来说,并非明智之举。
更何况,现在有些地方已经开始行动了。比如中国网信办等四部门,2025年9月就要实施《人工智能生成合成内容标识办法》,要求所有AI做的内容都得加明显和隐藏的标识,这样就能查到是谁做的、是不是AI生成的。
这种做法其实给其他地方提供了参考,要是全球能一起协作,制定统一的规则,就能更好地解决AI克隆身份的问题。不过目前来看,不同地方的法律还不一样,比如欧盟的GDPR和美国的形象权,在管辖权上还有冲突,这些都得慢慢协调解决。
Meta做名人聊天机器人这事,就像个警钟,提醒我们AI技术发展不能没边没界。我们既要享受技术带来的方便,也得守住个人权利的底线。只有法律、技术、伦理一起发力,才能让AI真正帮到我们,而不是给我们带来麻烦。