2026-04-17

C 狂欢的背后是风险和陷阱

技术简单、需求旺盛、监管滞后,三个条件凑在一起,乱象就来了。这场“灵魂买卖”的狂欢的背后是一个又一个隐患。

在法律人士看来,定制skill的业务直接将隐私卖得干干净净。不管是做“前任.skill”还是“同事.skill”,都需要大量私人数据,这些数据包括聊天记录、工作文档、社交媒体动态。这些东西本该只有特定的人能看到,现在要发给一个素不相识的卖家。“卖家的技术水平参差不齐,有的用正规云服务,有的连服务器都是借的。数据被存在哪里?会不会被转卖?会不会哪天被打包发到网上?”更让人觉得不安的是,不少卖家会强调“数据用完即删”,但这种承诺并没有监管。

而定制“雪峰.skill”的做法直接侵犯著作权、肖像权、姓名权。张雪峰的书、视频、肖像,没经过授权,谁都不能拿来卖钱。哪怕卖家声称“不商用”,明码标价本身就是商业行为,照样违法。做“前任.skill”则直接违反《个人信息保护法》。未经本人同意,拿别人的数据去训练AI,情节严重的还可能承担刑事责任。

在李进看来,“同事.skill”这种模式,表面上是企业变相留住员工知识的好办法,实际上是对劳动者权益的严重侵犯。员工在公司积累的经验,是花时间、花精力、走了无数弯路才攒下来的,不是从天上掉下来的。现在公司要把这些经验“提炼”出来,变成AI可以无限复制的资产,员工却拿不到任何额外报酬,这种做法明显不符合多数人的价值。

更值得注意的是,“前任.skill”所宣传的“疗伤”很可能会让人深陷在伤害中无法自拔,更可能让人沉溺在虚假的安慰里,不愿面对现实。当一个人习惯了AI的“完美回复”,可能再也无法忍受真实关系里那些磕磕绊绊。AI提供的内容未必真实,它可能“编造”一些前任从未说过的话、做过的承诺,如果用户信以为真,可能做出错误的决定。上海心理学专家夏末认为,过度依赖AI模拟的“前任”,可能让人产生严重的认知混乱。“他们会分不清哪些是真的记忆,哪些是AI编的。他们会开始怀疑真实的过去是不是真的发生过,还是自己记错了。”

从隐私泄露到法律侵权,从劳动剥削到情感异化,这四重风险环环相扣,正在将“人格蒸馏”变成一场没有赢家的游戏。技术跑得太快,规则还没跟上,在这个灰色地带里,每一个参与者都可能成为受害者,被“蒸馏”的人失去了对自身数据的主权,购买服务的人失去了隐私和判断力,而整个社会则在不知不觉中模糊了人与工具的边界。

■记者手记

合规与边界是关键

当skill的需求井喷般出现在人们生活的方方面面时,如何引导就极为关键。

今年3月,国家出台了《人工智能科技伦理审查与服务办法(试行)》,对AI的隐私和伦理问题有了初步规定,但面对“人格蒸馏”这种新事物,法律还有太多空白。

对于这种新现象,平台不能装睡,更不能对眼皮底下的灰色交易视而不见。技术提供者也应当守住伦理底线,那些开源AI工具的开发者,当初可能只是想帮人整理工作文档、提高效率,没想到自己的工具被人拿去“复活”逝者、克隆前任,他们也很无奈。但“没想到”不是借口,技术文档里应该写清楚,哪些事能做,哪些事不能做。有人提出,可以发展一种“合规蒸馏”技术,每一份被“提炼”的数据都有授权记录,被蒸馏的人可以随时说停,要求销毁。这种技术目前还在设想阶段,但方向是对的。

普通人在面对时代浪潮时,也应当冷静。花几百元买个“前任.skill”,以为捡了便宜?可能你才是那个被坑的人,隐私被泄露的同时,还可能在这个虚拟的温柔乡里越陷越深,耽误了真正该做的事。

在这个AI狂飙突进的时代,我们比任何时候都需要停下来问自己一个问题:什么是人?人的边界在哪里?当一个人的思维可以被复制、当一段关系可以被量化、当一段感情可以被装进一个小文件——我们还是不是“人”?

这些问题没有标准答案。但有一件事是确定的:如果我们现在不开始认真想,不现在开始立规矩,技术迟早会替我们做决定。而它做的决定,很可能不是我们想要的。

AI可以是工具,可以是助手,可以是伙伴——但它不该是人的替代品,不该是情感的赝品,不该是灵魂的复制品。