1元買軟件、5元買服務 配音演員聲音是如何被批量“偷走”的?

1元買軟件、5元買服務 配音演員聲音是如何被批量“偷走”的?

文章圖片


“臣妾做不到啊”——這句話 , 你可能聽過無數次 , 卻未必知道 , 說這話的聲音 , 正在被AI批量販賣 。
從《甄嬛傳》里的甄嬛 , 到《無間道》里的劉建明 , 這些令人熟悉的聲音 , 正在被AI批量“抄襲” , 成為短劇、有聲書、廣告里的配音 。
面對這一情況 , 3月下旬 , 有多位知名配音演員公開表態 , 如為《甄嬛傳》《瘋狂動物城》等經典作品配音的演員季冠霖發文稱 , “在未經本人授權的情況下擅自采集我的聲音進行人工智能技術合成 , 生成與本人聲音高度相似的AI音頻內容并用于商業及非商業用途的二次加工創作 , 此類作品的傳播與使用 , 嚴重侵犯了本人的合法權益 。 ”此后 , 邊江、張杰等數十位知名配音演員相繼轉發 , 聯合發聲——這是中國配音行業 , 對AI聲音侵權最大規模的一次集體反擊 。
新京報貝殼財經記者發現 , 過去需要專業錄音棚和大量樣本才能完成的語音克隆 , 如今借助開源模型和少量音頻素材即可實現 。 在一些電商平臺 , 完全“克隆”一個聲音的成本低至5元 , 而購買一個聲音克隆軟件的成本甚至低至1元 。
配音演員的聲音究竟是如何被“偷走”的?維權之路為何如此艱難?這場關乎聲音權益的博弈 , 正在拷問技術時代的倫理底線 。
浙江墾丁律師事務所主任律師張延來在接受新京報貝殼財經記者采訪時表示 , 配音演員的維權行動是AI時代數字人格權益保護的必然 , 也是對AI技術發展提出法律邊界的合理訴求 。
“蒙眼狂奔”的AI聲音克隆技術:1元買軟件 , 5元買服務
季冠霖曾為《甄嬛傳》《瘋狂動物城》等知名影視作品配音 , 她發現 , 在一部“魔改印度版《甄嬛傳》”中 , 甄嬛的聲音是她的——但角色完全不是她配的 , “聲音很像 , 但角色不像 。 ”
這種“聲音像但靈魂不在”的違和感 , 正是AI仿聲的致命問題 , 也是配音演員們憤怒的根源 。 他們的聲音 , 正在被當作免費的原材料 , 批量投喂給AI , 然后被用來生產那些他們從未授權 , 甚至根本不認同的內容 。
新京報貝殼財經記者發現 , 當前AI仿聲的技術門檻低廉 , 已經到了個位數甚至使用免費的開源軟件就能完成的程度 。 同時 , 演員的聲音“素材”獲取成本也幾乎為零 。 侵權者通過短視頻平臺、影視劇片段、配音作品 , 擅自剪輯、提取配音演員的聲音 , 無需任何授權 , 甚至無需接觸配音演員本人 , 就能獲取大量聲音素材 。
電商平臺截圖
記者在某電商平臺以相關關鍵詞搜索發現 , 提供原始音頻+文案 , 最后生成AI配音的相關服務 , 其收費在5元-100元不等 。
電商平臺截圖
此外 , 還有直接售賣語音克隆軟件的 , 收費僅僅一元 。 賣家在介紹中表示 , 軟件“適配自媒體、短視頻旁白、有聲書等 , 還有克隆明星的‘創意玩法’ 。 ”事實上 , 記者在開源平臺上也發現了類似的聲音克隆軟件 , 可供用戶免費下載 。
那么 , 聲音克隆要多久才能完成呢?貝殼財經記者注意到 , 在商家的宣傳中 , 3—15秒的聲音文件足可以完成聲音的“一比一復刻” 。
對此 , 記者首先體驗了一款開源版本的AI軟件 , 在經過3分鐘的記者本人的錄音“訓練”后 , 該軟件復刻了記者的“聲音模型” 。 此后輸入任意文本 , 軟件即可口播出自己的聲音 。 記者發現 , 經過模型訓練后 , 記者在發音時的一些吐字習慣都被模型牢牢記住 , 對于一些較短的語句 , 連記者本人都識別不出這是機器合成的語音 , 而生成長語句時 , 則會出現瑕疵 , 但只要多次生成 , 再從中挑選合成效果較好的語句 , 總有可以“以假亂真”的聲音出現 。
值得注意的是 , 這些AI軟件的創作者并非不知道自己的軟件可能用來模仿其他人的聲音 , 如一款軟件的作者在使用界面中標注稱 , “本軟件以MIT協議開源 , 作者不對軟件具備任何控制力 , 使用軟件者、傳播軟件導出的聲音者自負全責 。 ”也有賣家對記者表示 , 軟件“僅限個人學習使用” 。
AI仿聲隱蔽性遠超AI換臉 , 維權成本高
另一方面 , 相比時不時就會引發關注的“AI換臉” , AI仿聲侵權的維權難度更大 。 這是因為AI可以通過微調音色、語調 , 將多個配音演員的聲紋“拼接”在一起 , 形成相似度極高的仿聲 , 做到“高度相似非1:1復刻” 。
配音演員李龍濱稱 , “經常會有朋友發過來 , 說龍濱老師這是你的聲音嗎?我聽了一下 , 真的很像 。 尤其是短的、手調之后 , 我覺得相似度能達到百分之九十以上了 。 比如我配張家輝的《激戰》里邊的場面 , 經常會被AI , 而且它改完詞之后二創 , 有時候連我自己都要仔細分辨一下 。 ”
AI聲音復刻的取證鏈條更是薄弱 。 網絡傳播的AI語音多為碎片化二次加工 , 難以追溯源頭和固定完整侵權鏈路 。 配音演員葉清無奈地說 , 一般情況下 , 要找一些點擊率比較高的視頻 , 才有維權的價值 。 找到視頻發布者的信息很難 , 律師花了很長的時間 , 可能持續一年 , 才找到第一個侵權人信息 。 而且還有取證的問題 , 你怎么證明這個聲音就是你的?那可能要做聲紋鑒定 , 其實也是耗時耗力的 。
目前司法實踐中 , 如何認定AI仿聲侵權尚無統一標準 。 全國首例AI生成聲音人格權侵權案明確 , 在具備可識別性的前提下 , 自然人聲音權益的保護范圍可及于AI聲音 。 但“可識別性”的判斷標準模糊——有的認為“相關公眾”能識別即可 , 有的要求“一般社會公眾”能識別 。 對于非明星配音演員 , 即便聲音高度相似 , 也可能被認定為不構成侵權 。
聲音可以被剪輯、篡改、變速 , AI微調即可實現“高度相似非復制” , 司法鑒定尚無統一標準 。 而一些明知故犯的侵權者 , 正是看準了維權成本高、取證難、鑒定難的特點 , 才敢肆無忌憚地用配音演員的聲音牟利 。
【1元買軟件、5元買服務 配音演員聲音是如何被批量“偷走”的?】AI仿聲的隱蔽性 , 讓維權之路布滿荊棘 。 配音演員們面臨的困境重重:取證鏈條弱 , 侵權鏈路難以追溯;鑒定難 , 技術層面難以界定;成本高 , 維權性價比較低;法律滯后 , 監管存在空白 。 四大核心困境 , 讓很多人即便遭遇侵權 , 也只能無奈放棄 , 這也是AI仿聲侵權泛濫的關鍵原因 。
用魔法打敗魔法?專家建議通過加水印等技術手段“打假”
“從法律角度看 , 未經許可使用特定人聲訓練AI模型并使用 , 很可能構成對配音演員聲音人格權的侵犯 , 甚至可能涉及不正當競爭 。 這與利用他人肖像、姓名進行商業宣傳的邏輯是相似的 。 ”張延來告訴貝殼財經記者 。
《中華人民共和國民法典》第一千零二十三條明確 , 自然人的聲音參照肖像權予以保護 , 聲音作為人格標識具有獨立法律地位 。 2024年4月 , 北京互聯網法院一審宣判全國首例AI生成聲音人格權侵權案 , 明確認定在具備可識別性的前提下 , 自然人聲音權益的保護范圍可及于AI生成聲音 , 被告賠償原告各項損失25萬元 。
這個判例給行業吃了一顆“定心丸” 。
但這遠遠不夠 。 “從商用角度看 , 如果配音演員的聲音被無償、無限制地用于訓練AI , 那么他們將失去對其聲音商業利用的控制權 , 直接損害其經濟利益 。 目前司法實踐中已經出現了支持AI領域聲音維權的案例 , 未來這類維權行動和相關判例也只會越來越多 。 ”張延來告訴貝殼財經記者 。
由于AI克隆聲音“維權難”的特點 , 有專家呼吁 , 未來可通過加水印等技術手段 , 為AI聲音搭建可追溯、可識別的安全框架 。
在技術層面 , 張延來表示 , 通過技術手段可以嵌入數字水印或元數據 , 使得AI生成的音視頻內容具有可追溯性 , 能夠準確識別內容的出處 。 這類技術可以幫助平臺和監管機構快速檢測出虛假信息并阻止其傳播 。 同時 , 可以開發更強大的AI模型用于檢測深度偽造內容 , 這類反偽造AI可以應用于社交媒體、新聞平臺等 , 自動過濾虛假內容 。
有專家認為 , 對于在AI聲音中嵌入水印 , 需要統一的、規范的技術標準 。 配音演員可以為自己的聲音和聲紋做一個單獨備案 , 以便將來更好地追責 。 有了相關的判定 , 疊加監管制度、標識制度和取證制度的逐步完善 , 對配音演員聲音的有效保護機制能夠迅速建立起來 。
實際上 , 技術本身沒有對錯 , 但技術的使用是有邊界的 。 這個邊界 , 就是人格權的尊嚴 。 AI可以復刻音色 , 但難以復制情感流動和配音演員本人的即興火花 。 人類聲音的“人性溫度”是無法由算法量化的 。
新京報貝殼財經記者 羅亦丹
編輯 岳彩周
校對 付春愔

    推薦閱讀