三只羊事件闹得沸沸扬扬,没想到受害者竟然是AI。
昨晚,合肥警方就“三只羊集团创始人卢文庆录音事件”发布通报,称这条广为流传的音频为AI生成,犯罪嫌疑人已经被依法采取刑事强制措施。
一锤定音,这条通报不仅给出了官方表态,也扇了前几天那位网传“国内AI第一人”一记耳光,毕竟,当时“国内AI第一人”给出的判断是“AI声音克隆技术目前还做不到那么丝滑”。
上下滑动查看更多
不过更出人意料的是,今天有一家AI公司跳出来“发布声明”,说这条音频内容是嫌疑人通过自家研发的AI配音大模型制作的。
网友也惊了,都这样了还不忘打广告,AI卷王?我们顺着声明中提及的公司找了一下声明来源,在一个同名微博上找到了相关内容,不过该账号未经官方认证,因此也无法盖棺定论。
不过,围绕这条声明的讨论还在增加,网友们纷纷称之为“自杀式营销”,还有好奇宝宝发问了,这家AI公司的声音克隆产品真有那么厉害吗,“有没有人去这个网站实测一波呀”。
试试就试试……在隐去相关公司和产品名称的基础上,我们对该产品进行了一番实测,需要注意的是,以下测试仅作科普之用,工具的价值在于使用者如何使用,我们绝不支持任何人用AI在法律边缘试探。
与此同时,我们也咨询了相关律师,想知道此外这类AI克隆声音侵权案件是否有先例,以及创作者和平台在使用或推广新技术的过程中需要注意哪些法律问题,供各位参考。
爹,全都找遍了,没钱,没货,也没有银子。人倒是剩俩活的,杀不杀?
图片来源:B站UP主“痕继痕迹”的GPT- SoVITS教程
实际上,通过AI伪造音频的侵权事件已不是第一案。
今年4月,北京互联网法院审理了全国首例“AI声音侵权案”。
原告殷某某是一名配音师,曾录制多部有声作品。其意外发现,自己的声音被AI化后在一款名为“魔音工坊”的App上出售。法院最终判决被告未经原告许可使用其声音,构成侵权,并赔偿原告各项损失25万元。
根据《中华人民共和国民法典》第1023条,自然人的声音受到法律保护,其保护方式参照肖像权。这意味着,如果AI生成的声音具有可识别性,能够被公众关联到特定自然人,那么未经该自然人许可使用其声音,就可能构成侵权。
中国AI绘画著作权第一案原告、北京市天元律师事务所合伙人李昀锴告诉“AI新榜”:
目前来看,我们的法律不太需要修订。因为AI技术还在发展过程中,可能过两年就迭代出新的技术,如果我们的法律是针对这个去立法的话,立法大概要3到5年,到时候技术形态已经改变,那这个法律其实就变成了一纸空文。
我们当前的法律已经规定了基本的框架,需要调整的只是对于这些法律怎么去解释,以及怎么通过典型性的案例去塑造相关的司法裁判态度。只有在技术真正成熟的情况下,我们才应该推动立法去把司法实践中已经确立的规则说明清楚。
除了司法实践中的侵权案例以外,内容平台上的AI声音侵权更为广泛和隐秘。
眼下,层出不穷的AI工具大大降低了创作门槛,AIGC已成为继PGC、UGC后的热门内容生产方式。
用AI声音克隆技术二创热门音乐、让动漫游戏角色进行AI翻唱,或是让已故名人开口说话等等,在国内外的内容平台上都已十分常见。
相比老生常谈的同人创作,用AI进行二次创作是一个更为广泛的概念。同人作品通常限于粉丝群体内部的创作,而二次创作可能来源于普通的AI技术爱好者,且因为有了AI技术的加持,改编和创新有了更大的想象空间。
保质保量的AI声音二创作品,不仅能借助原IP或名人本身的热度触达粉丝群体,也更有潜力突破圈层。
通常来说,考虑到目前二创内容的数量和影响力,以及内容平台的生态,版权保护主要有赖于创作者的自觉、版权方和大众监督。
如果原作和版权方不对二创作品进行追究,一般不会产生法律问题。
内容平台也大都选择让这些内容自由生长,同时给予一定的限制。毕竟,过于严格的版权监督势必会打击创作者的热情,阻碍内容的传播,对内容平台来说也是一笔不小的损失。
当然,在鼓励内容创新的同时,内容平台也需要完善相应的审核、标识和监管机制。
2024年9月14日,网信办发布《人工智能生成合成内容标识办法(征求意见稿)》,进一步明确了添加AIGC内容标识的具体要求。
提供合成人声、仿声等语音生成或者显著改变个人身份特征的编辑服务的,应在音频的起始、末尾或中间适当位置添加语音提示或音频节奏提示等标识,或在交互场景界面中添加显著的提示标识。
除了暧昧、难以定夺的版权归属问题外,另一个争论来自于现实的伦理道德冲突。
比如用AI“复活”已故明星的音容笑貌,在温情和缅怀的外衣下,也被视为对逝者的不敬和过度消费。
直播预告
AIGC有哪些新应用新玩法?| 9月复盘
「AI新榜交流群」进群方式:添加微信“banggebangmei”并备注姓名+职业/公司+进群,欢迎玩家们来群里交流,一起探索见证AI的进化。
欢迎分享、点赞、在看 一起研究AI