近年来,AI深度合成技术在网络上引发的侵权问题日益严峻,从模仿企业家雷军到伪造张文宏医生的音视频,甚至有不法分子利用该技术制作诈骗视频。这些事件频繁发生,引起了广泛关注。
此前,有网友利用AI技术模仿刘德华的声音,以此吸引流量。刘德华的电影公司迅速发表声明,警告网民不要受伪造声音技术的欺骗。记者近期调查发现,制作AI深度合成音视频并不复杂,甚至在某些购物平台上,该技术已成为网店盈利的手段,消费者只需支付几十元,即可定制名人音视频。
那么,这些高度逼真的AI合成音视频是如何制作的呢?记者发现,尽管网络上存在一些易于下载的换脸换声工具,但其效果并不理想,逼真度有限。相比之下,网店所提供的AI深度合成服务则更为专业。专家指出,目前网络上有多种开源软件和工具可以实现换声和换脸效果,网民可以自由下载并在个人电脑上使用。
尽管这些软件种类繁多,但由于涉及多个步骤和参数调整,它们具有一定的技术门槛,不为普通网民所熟知。然而,短视频平台上的一些主播正在教授如何使用这些软件,使得技术门槛逐渐降低。
针对这一现象,法律专家指出,相关法律法规明确规定,未经授权,不得深度合成制作发布他人信息。网店利用AI技术制作并出售名人音视频的行为已构成侵权,应承担相应的法律责任。根据《中华人民共和国民法典》的规定,自然人享有肖像、声音等权益,任何组织或个人未经授权利用信息技术进行伪造均构成侵权。
2023年国家网信办、工信部、公安部联合发布的《互联网信息服务深度合成管理规定》要求,任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息。2024年网信办发布的《人工智能生成合成内容标识办法(征求意见稿)》也提出,对AI生成合成内容应进行标识,以防止误导性信息的传播。
在实际司法实践中,国内已经审结了首例AI生成声音人格权侵权案。在这起案件中,一名配音演员的声音在未经授权的情况下被AI生成并出售,法院最终认定被告行为构成侵权。这进一步强调了保护个人声音权益的重要性。
针对AI深度合成音视频的侵权问题,专家建议提高公众的防范意识。从技术角度来看,可以利用AI技术对抗和检测AI。目前已有一些典型的AI技术能够对图片或音视频进行检测,以判断其是否经过后期加工或合成。同时,法律、平台和公众应共同努力,综合施策防范AI侵权问题。
法律层面需要完善相关立法,细化AI克隆技术的法律条款,明确侵权行为的定义和责任,并加强执法力度。平台层面应强化政策法规的宣贯和执行,做好数据保护,应用技术手段规避AI克隆侵权问题的发生,并建立健全内容审核和侵权举报机制。公众也应提高警惕,避免成为AI侵权行为的受害者。
法律专家提醒,AI深度合成技术的使用者和信息发布者切勿心存侥幸。法律没有灰色地带,任何违法行为都将受到法律的制裁。AI技术的合理使用是法律所允许的,但不合法、不合理的使用尤其是未经标识和提示的发布和传播行为将受到严厉打击。