您现在的位置:新生活在线 正文

近期,多位配音演员公开发声,反对未经授权采集其声音素材用于AI训练、音色合成及商业变现。AI仿声侵权已形成“素材采集-内容生成-流量变现”灰色产业链,且比AI换脸更隐蔽、维权更难。

侵权现状:配音演员叶清、李龙滨、季冠霖等均遭遇过高度还原的AI仿声。季冠霖指出,无序发展的AI仿声消解配音演员的表演能力和情感流动,并带来法律风险。

法律困境:中国政法大学人工智能法研究院院长张凌寒表示,AI仿声可能侵犯声音人格权及影视剧著作权。但维权面临现实难题:取证链条弱,AI语音多为碎片化二次加工;声音无实体,易被剪辑、篡改、变速,非1∶1复刻;训练数据不透明,难以证明数据来源。

破解路径:声音使用方应通过合规手段取得授权;行业自律与平台规则需完善,网络平台可禁止用户未经授权使用他人声音进行AI生成;未来可通过加水印等技术手段为AI声音搭建可追溯框架;配音演员可对声音和声纹单独备案,以便追责。随着监管、标识、取证制度逐步完善,对配音演员声音的有效保护机制有望建立。

责任编辑:admin

免责声明: 转载目的在于传递更多信息,文章版权归原作者所有,内容为作者个人观点。本站只提供参考并不构成任何投资及应用建议。如涉及作品内容或其它问题,请在30日内与工作人员联系(18731251601),我们将第一时间与您协商。谢谢支持!

进入新闻频道新闻推荐
商讯新闻商讯新闻
资讯资讯