AI深度合成滥用:雷军刘德华遭侵权,普通人如何自保?

   发布时间:2025-02-18 00:47 作者:江紫萱

近年来,人工智能(AI)深度合成技术在音视频领域引发的侵权问题日益凸显,从对企业家的恶搞到冒充专家进行商品推销,乃至诈骗活动,这一技术被不法分子滥用的现象愈演愈烈。

回顾过去一年,诸如利用AI技术模仿刘德华的声音以博取网络流量的案例层出不穷。刘德华的电影公司甚至不得不发布紧急声明,提醒公众警惕伪造其声音的AI语音合成技术骗局。据央视新闻报道,记者调查发现,制作AI深度合成音视频的过程远比想象中简单,部分在线购物平台已将AI深度合成技术作为盈利工具,消费者仅需支付几十元,即可定制名人的AI深度合成音视频。

更令人惊讶的是,一些网络主播甚至在直播平台上教授如何使用这些技术。记者在手机应用商店搜索“换脸换声”关键词,发现了大量相关工具。尽管部分工具的逼真度有限,且场景固定,但网店制作的AI深度合成音视频却能达到高度逼真。对此,中国网络空间安全协会人工智能安全治理专业委员会专家薛智慧指出,目前网络上有数十种开源软件和工具,可以实现换声和换脸效果,供用户自由下载和使用。

薛智慧专家进一步解释,这些软件虽然属于半专业软件,具有一定的技术门槛,但随着短视频平台上众多主播的教学,其使用门槛正在逐渐降低。那么,这些未经授权制作出售名人音视频的行为,是否触犯了法律呢?法律专家明确表示,相关法律法规已明确规定,未经授权,不得深度合成制作发布他人信息。因此,网店接单制作名人AI深度合成视频的行为已构成侵权,需承担相应的法律责任。

针对这一法律责任,北京航空航天大学法学院副教授赵精武提到,国内已经审结了首例AI生成声音人格权侵权案。在此案中,一名配音演员的声音在未经授权的情况下被AI生成并出售,法院最终认定被告行为构成侵权。这一案例为类似侵权案件提供了法律参考。

为了应对AI深度合成音视频侵权问题,专家建议从技术、法律和平台等多个层面综合施策。从技术角度来看,可以利用AI技术对抗和检测AI。目前已有一些AI技术能够检测图片或音视频是否经过后期加工和合成。中国计算机学会计算机安全专业委员会委员吕延辉强调,法律层面需进一步完善相关立法,细化AI克隆技术的法律条款,明确侵权行为的定义和责任,并加强执法力度。平台层面则需强化政策法规的宣贯和执行,做好数据保护,应用技术手段规避AI克隆侵权问题的发生,同时建立健全内容审核和侵权举报机制。

专家还提醒AI深度合成制作和信息发布者,不要抱有侥幸心理。法律并未禁止使用AI合成技术,而是禁止不合法、不合理的使用,尤其是禁止不进行任何显著标识和提示的AI合成信息的发布和传播。公众也应提高防范意识,学会识别和处理AI深度合成音视频,以免成为不法分子的受害者。

 
 
更多>同类内容
全站最新
热门内容
本栏最新