治理AI滥用,要直面“霍启刚之困”

2026-03-25

本报评论员 涂建敏

公众人物霍启刚日前在社交平台发文,坦言深受AI盗用形象之困。其声线、样貌被提取生成短视频,内容完全违背个人观点。他写道,过去半年此类情况愈演愈烈,自己已处理数千条假内容,安排同事专职投诉,却仍源源不断,令人困扰。

霍启刚的遭遇并非个例。多位明星也表达类似困惑,如演员面部形象被“AI换脸”用于短剧、短视频,引发粉丝联名抗议,还有多人就“AI换脸”“AI虚假代言”等现象维权。不止于此,当下AI技术快速普及应用,普通人也正成为AI滥用的受害者,从伪造病历敲诈商家,到生成虚假视频博取流量,再到AI拟声冒充亲属诈骗老人——AI正被异化为新型“违法工具”,其低成本、高迷惑性对社会治理构成严峻挑战。

治理AI滥用已成为社会关切。今年全国两会上,甄子丹、靳东、张凯丽等委员纷纷发声,呼吁重视相关问题。

从法规层面看,2019年以来,《网络音视频信息服务管理规定》《网络信息内容生态治理规定》及《民法典》等均对利用信息技术手段伪造、侵害他人权益作出规范。然而理想与现实仍有差距。当前AI滥用的症结在于技术“低成本”与造假“高收益”形成闭环。有媒体日前暗访发现,“AI换脸”服务甚至在电商平台悄然出现,无需授权即可定制明星脸,收费数百元,如此“生意经”,令人咋舌!

有必要看到,前述霍启刚及其团队每日投诉反馈,侵权内容却屡禁不止,这至少暴露出治理机制的两大短板:一是平台责任落实不足,AI生成内容的标识、审核机制形同虚设,算法推荐反而助长侵权传播;二是法律救济成本过高,权利人只能依靠“人海战术”逐一投诉,维权成本与侵权成本严重失衡。

治理AI滥用,必须直面“霍启刚之困”,从技术、法律、平台三个维度协同发力。平台要切实压实内容审核主体责任,建立更严格的AI生成内容发布审核流程,防止算法将侵权内容推至前台。强制推行AI生成内容显性标识制度,加快深度伪造检测技术研发普及,降低公众辨识门槛。通过技术迭代与强化监管,探索建立快速下架、责任倒查等机制,避免维权陷入“永无止境的投诉循环”,以快速反应和加大惩处斩断AI造假牟利的灰色产业链。

技术日新月异,治理不可滞后。只有法治与技术并重、权利与责任对等,才能真正为“霍启刚们”解困,还公众一个清朗的数字空间。