| 📱手机版 | ☁华夏时讯网APP |

登录
×

立即注册 忘记密码?

注册
×

已有账号,请立即登录
找回密码
×

您所在的位置: 新闻> 资讯

生成式AI不能沦为造假工具 演员被"分身"敲响警钟

来源:中国经济网  作者:《华夏时讯网》编辑  发布时间:2025-11-21

摘要: 近,某演员遭遇“AI盗播”,在同一时间“现身”多个直播间带货。该演员向自己的“分身”提出质疑,还被拉黑了。此事再度...

近,某演员遭遇“AI盗播”,在同一时间“现身”多个直播间带货。该演员向自己的“分身”提出质疑,还被拉黑了。此事再度引发公众对AI(人工智能)的讨论。

近年来,生成式AI飞速发展,曾经需要一定专业技能才能完成的视频制作,如今可以轻松完成。但技术被一些人滥用,也带来一系列乱象:有消费者伪造“买家秀”骗取退款,社交平台出现大量虚假明星合影,诈骗分子伪造音视频“围猎”老年人……AI原本是表达创意、提高工作效率的好帮手,如今却有沦为造假工具的危险,这一现象必须引起警惕。

9月份开始施行的《人工智能生成合成内容标识办法》明确,人工智能生成合成内容标识包括显式标识和隐式标识。显式标识是以文字、声音等方式呈现并可以被用户明显感知到的标识,当AI内容具有迷惑性甚至误导性时,显著的标识能够帮助用户迅速作出判断、辨别虚假信息;隐式标识是指采取技术措施在生成合成内容文件数据中添加的标识,在追溯伪造内容来源、维护被侵权人合法权益方面具有重要意义。

《标识办法》施行以来,各大平台纷纷响应,出台各类细则确保AI内容亮明身份,迈出了AI内容治理的关键一步。但目前仍有部分AI内容未添加任何标识,对观众形成误导。进一步遏制AI造假乱象,还需构建多层次的治理体系。

比如,强化法律保障,进一步明确AI造假的处罚标准,厘清服务提供者、平台、用户三方责任,覆盖多种造假情形;加强监管力度,针对各类AI造假行为开展专项治理工作,建立多部门协同联动的监管体系,形成打击合力;升级技术手段,提升高精度检测能力,精准识别造假内容。

演员被“分身”只是一记警钟。技术迅猛发展,治理必须跟上。只有规则、监管、技术同步“打补丁”,才能有效减少AI造假,降低公众上当受骗的风险。


责任编辑:《华夏时讯网》编辑

上一篇:外交部:日本应该记住,台湾是中国的台湾

下一篇:发展6G可以跳过5G阶段一步到位?反对激进

分享到:

华夏时讯网版权及免责声明:

1、凡本网注明“来源:华夏时讯网” 或“来源:华夏时讯-华夏时讯网”的所有作品,版权均属于 华夏时讯网(本网另有声明的除外);未经本网授权,任何单位及个人不得转载、摘编或以其它 方式使用上述作品;已经与本网签署相关授权使用协议的单位及个人,应注意该等作品中是否有 相应的授权使用限制声明,不得违反该等限制声明,且在授权范围内使用时应注明“来源:华夏 时讯网”或“来源:华夏时讯-华夏时讯网”。违反前述声明者,本网将追究其相关法律责任。
2、本网所有的图片作品中,即使注明“来源:华夏时讯网”及/或标有“华夏时讯网(hxsxnews.cn)” 水印,但并不代表本网对该等图片作品享有许可他人使用的权利;已经与本网签署相关授权使用 协议的单位及个人,仅有权在授权范围内使用该等图片中明确注明“华夏时讯网作者XXX摄”或 “华夏时讯-华夏时讯网作者XXX摄”的图片作品,否则,一切不利后果自行承担。
3、凡本网注明 “来源:XXX(非华夏时讯网)” 的作品,均转载自其它媒体,转载目的在于传递更 多信息,并不代表本网赞同其观点和对其真实性负责。
4、如因作品内容、版权和其它问题需要同本网联系的,请在30日内进行。
※ 网站总机:010-59447158 有关作品版权事宜请联系:13341002733 邮箱:hxsxnews@163.com

评论框

请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
用户名: 密码:

 客服电话:010-59447158  传真:010-59447158  邮箱:hxsxnews@yeah.net

本站所有文章、数据仅供参考,使用前务请仔细阅读法律声明,风险自负

Copyright Up to 2025 华夏时讯网 www.hxsxnews.com 版权所有 All Rights Reserved  ICP备19036145号

特别声明:未经授权禁止摘编、复制或建立镜像,否则将依法追究法律责任