作者:知弈 知產(chǎn)財經(jīng)
AI合成聲音技術(shù)門檻斷崖式下降,使其成為網(wǎng)絡(luò)侵權(quán)的重災(zāi)區(qū)。從奧運冠軍全紅嬋到演員靳東,從歌手孫燕姿到商界名人雷軍,AI擬聲正快速侵入帶貨、直播、音樂、配音等諸多聲音場景。
9月1日,《人工智能生成合成內(nèi)容標(biāo)識辦法》正式實施——這道被輿論寄予厚望的“緊箍咒”,真的能讓技術(shù)狂飆踩下剎車嗎?
一、亂象叢生:AI擬聲技術(shù)“零門檻”引發(fā)濫用
一部手機、兩三個AI軟件,幾分鐘就能制作一段音頻內(nèi)容。技術(shù)門檻的大幅降低引發(fā)一系列侵權(quán)亂象。在網(wǎng)絡(luò)平臺上搜索“聲音克隆”,能輕易找到大量相關(guān)教程視頻和軟件下載信息。
名人聲音音源豐富、易獲取且社會影響力大,成為不法分子的首要目標(biāo):
奧運冠軍成“韭菜”,AI擬聲帶貨成重災(zāi)區(qū):“我是你們的嬋寶,有事請大家?guī)兔?,今天讓媽媽先拿?00單老家的土雞蛋,給大家放福利。”近期,一則“全紅嬋帶貨土雞蛋”的視頻在網(wǎng)絡(luò)上廣泛傳播。奧運冠軍“原聲”一出,評論區(qū)瞬間刷屏“支持”“已拍”。全紅嬋哥哥全進華在直播中無奈辟謠:“我妹妹在訓(xùn)練基地,她怎么賣雞蛋?那是AI聲音,全平臺一大堆這樣的切片,告都告不過來?!毖胍曊{(diào)查發(fā)現(xiàn),某博主發(fā)布的17件作品全部是利用AI仿冒全紅嬋聲音帶貨土雞蛋的視頻,其中一個視頻點贊量高達(dá)1.1萬?!叭t嬋帶貨土雞蛋”并非孤例,不法分子利用AI克隆孫穎莎、王楚欽等奧運冠軍的聲音推銷土雞蛋、保健品,誘導(dǎo)粉絲消費。
“假靳東”24小時直播,AI擬聲誘發(fā)詐騙陷阱:有主播使用AI技術(shù)模擬演員靳東的聲音進行24小時不間斷直播,通過與“假靳東”互動誘導(dǎo)中老年女性購買產(chǎn)品、打賞送禮,甚至進行金融詐騙。
AI擬聲惡搞無底線,雷軍呼吁明確合理邊界:此前,有部分網(wǎng)友利用AI技術(shù)克隆雷軍、劉德華、張文宏等名人聲音,并發(fā)布惡搞、吐槽、辱罵視頻,引發(fā)熱議。今年兩會期間,雷軍作為全國人大代表,提出了關(guān)于加強“AI換臉擬聲”違法侵權(quán)重災(zāi)區(qū)治理的建議。
AI歌手沖擊音樂產(chǎn)業(yè),引發(fā)版權(quán)爭議與創(chuàng)造力擔(dān)憂:早在2023年,B站、抖音等平臺就涌現(xiàn)大量AI“孫燕姿”、AI“周杰倫”演唱的歌曲,播放量動輒破百萬。AI歌手事件引發(fā)了社會公眾對AI在音樂演唱行為方面的思考與相關(guān)版權(quán)問題的討論。孫燕姿發(fā)長文調(diào)侃自己是一名“冷門歌手”,AI成了所謂的頂流,同時表明了自己對于AI技術(shù)將威脅到成千上萬個由人類創(chuàng)造的工作的擔(dān)憂和無奈。
……
二、法律紅線:AI擬聲侵犯了哪種權(quán)利?
對于AI“合成”聲音是否侵犯自然人合法權(quán)益、侵犯何種權(quán)益,在法律層面并無明確規(guī)定。司法實踐中,適用《民法典》規(guī)定的人格權(quán)(聲音權(quán)、肖像權(quán)、名譽權(quán))是規(guī)制AI擬聲侵權(quán)的主要路徑。
?。ㄒ唬┤珖桌癆I”聲音侵權(quán)案:殷某楨訴北京某智能科技公司等人格權(quán)糾紛案
2024年4月23日,全國首例“AI生成聲音人格權(quán)侵權(quán)案”在北京互聯(lián)網(wǎng)法院一審宣判。原告配音演員殷某楨發(fā)現(xiàn),其錄制的聲音被某文化公司擅自提供給某軟件公司,經(jīng)AI訓(xùn)練后生成“文本轉(zhuǎn)語音”產(chǎn)品并在多平臺上線播放逾32億次。
北京互聯(lián)網(wǎng)法院依據(jù)《民法典》第1023條(“對自然人聲音的保護,參照適用肖像權(quán)保護規(guī)定?!保┲赋觯?b>聲音與肖像、姓名同為民事主體外在表征,受人格權(quán)保護的前提是“具有識別特定自然人屬性”——若一般公眾或特定范圍公眾能通過音色、語調(diào)和發(fā)音風(fēng)格識別出特定自然人,該聲音即受保護。未經(jīng)許可使用AI處理后的此類聲音,構(gòu)成對自然人聲音權(quán)益的侵權(quán)。最終法院判令被告書面賠禮道歉,連帶賠償殷某楨25萬元。
(二)涉AI“深度偽造”名人聲音帶貨人格權(quán)侵權(quán)糾紛案:李某某訴某文化傳媒有限公司等人格權(quán)糾紛案
近日,北京互聯(lián)網(wǎng)法院審結(jié)一起涉AI“深度偽造”名人聲音帶貨的人格權(quán)侵權(quán)糾紛案件。原告育兒專家李某某主張:被告某文化傳媒有限公司在其運營的網(wǎng)絡(luò)店鋪中,使用李某某的公開演講、授課視頻,配以與原告聲音高度近似的AI合成聲音,推廣多本家庭教育類圖書,侵犯其肖像權(quán)和聲音權(quán),要求賠禮道歉、賠償損失。
北京互聯(lián)網(wǎng)法院明確兩點:第一,AI合成聲音具備可識別性即可落入權(quán)利人聲音權(quán)益的保護范圍,未經(jīng)許可使用構(gòu)成侵權(quán)。第二,商家委托平臺“達(dá)人”帶貨、共享收益,對明顯使用名人肖像、合成模擬聲音的推廣視頻未盡到合理的審查注意義務(wù),應(yīng)對受托人制作、發(fā)布侵權(quán)視頻的行為承擔(dān)連帶責(zé)任。最終判決商家公開道歉并賠償李某某經(jīng)濟損失及維權(quán)合理支出12萬元。
三、新規(guī)落地:“電子水印”如何標(biāo)識AI身份?
AI技術(shù)炮制虛假信息正引發(fā)公眾的“信任危機”,并對正規(guī)的內(nèi)容創(chuàng)作生態(tài)造成沖擊,更涉及數(shù)據(jù)安全、隱私保護等問題,亟需監(jiān)管措施介入。
9月1日起,《人工智能生成合成內(nèi)容標(biāo)識辦法》(以下簡稱《標(biāo)識辦法》)及強制性國家標(biāo)準(zhǔn)《人工智能生成合成內(nèi)容標(biāo)識方法》(以下簡稱《標(biāo)識方法》)正式施行,前者從立法層面提出管理要求,后者則提出具體操作方法,共同為AI生成合成內(nèi)容打上“電子水印”。
《標(biāo)識辦法》針對不同主體,構(gòu)建了“生成端-傳播端-應(yīng)用端-用戶端”全鏈條責(zé)任機制:
1.網(wǎng)絡(luò)信息服務(wù)提供者義務(wù)
網(wǎng)絡(luò)信息服務(wù)提供者應(yīng)當(dāng)在AI生成合成內(nèi)容中應(yīng)添加顯式標(biāo)識和隱式標(biāo)識,從而構(gòu)建AI生成合成內(nèi)容的信任機制。
顯式標(biāo)識是指在生成合成內(nèi)容或者交互場景界面中添加的,以文字、聲音、圖形等方式呈現(xiàn)并可以被用戶明顯感知到的標(biāo)識。隱式標(biāo)識是指采取技術(shù)措施在生成合成內(nèi)容文件數(shù)據(jù)中添加的,不易被用戶明顯感知到的標(biāo)識。顯式標(biāo)識讓用戶一眼可知“哪些是生成的”;隱式標(biāo)識則厘清內(nèi)容是“誰生成的”“從哪里生成的”。
圖:《人工智能生成合成內(nèi)容標(biāo)識方法》音頻內(nèi)容顯式標(biāo)識示例
對于音頻內(nèi)容,網(wǎng)絡(luò)信息服務(wù)提供者需要在音頻的起始、末尾或者中間適當(dāng)位置添加語音提示(如“內(nèi)容由AI生成”)或音頻節(jié)奏提示(如“短長 短短”節(jié)奏,對應(yīng)“AI”的摩斯碼)等標(biāo)識,或者在交互場景界面中添加顯著的提示標(biāo)識。
2.傳播平臺義務(wù)
簡而言之,傳播平臺要做到這幾件事:核查隱式標(biāo)識、用戶聲明內(nèi)容、檢測顯式標(biāo)識或其他生成合成痕跡、識別疑似生成合成內(nèi)容,并且添加顯著標(biāo)識明確提示公眾。傳播平臺還要提供必要的標(biāo)識功能,并提醒用戶主動聲明。
3.應(yīng)用程序分發(fā)平臺義務(wù)
互聯(lián)網(wǎng)應(yīng)用程序分發(fā)平臺在應(yīng)用程序上架或者上線審核時,應(yīng)當(dāng)要求互聯(lián)網(wǎng)應(yīng)用程序服務(wù)提供者說明是否提供人工智能生成合成服務(wù)。互聯(lián)網(wǎng)應(yīng)用程序服務(wù)提供者提供人工智能生成合成服務(wù)的,互聯(lián)網(wǎng)應(yīng)用程序分發(fā)平臺應(yīng)當(dāng)核驗其生成合成內(nèi)容標(biāo)識相關(guān)材料。
4.用戶義務(wù)
用戶使用網(wǎng)絡(luò)信息內(nèi)容傳播服務(wù)發(fā)布生成合成內(nèi)容的,應(yīng)當(dāng)主動聲明并使用服務(wù)提供者提供的標(biāo)識功能進行標(biāo)識。并且,不得惡意刪除、篡改、偽造、隱匿本辦法規(guī)定的生成合成內(nèi)容標(biāo)識,不得為他人實施上述惡意行為提供工具或者服務(wù),不得通過不正當(dāng)標(biāo)識手段損害他人合法權(quán)益。
《標(biāo)識辦法》試圖劃定AI生成合成內(nèi)容與人類創(chuàng)作內(nèi)容的界限,重塑信息透明機制,幫助公眾對魚龍混雜的內(nèi)容信息作出理性判斷。然而,AI技術(shù)日新月異,今日的“標(biāo)識防護”或許難以完全應(yīng)對明日的“去標(biāo)識技術(shù)”,“真假美猴王”式的鬧劇恐怕仍會持續(xù)上演。制度只是起點,標(biāo)識能否防得住,關(guān)鍵還要看是否真正落實企業(yè)、平臺、用戶每一環(huán)主體責(zé)任。AI擬聲、AI換臉亂象治理是一場需要持續(xù)升級技術(shù)、修補規(guī)則、全民參與的長期拉鋸戰(zhàn)。
(本文僅代表作者觀點,不代表知產(chǎn)財經(jīng)立場,平臺并不承諾對內(nèi)容負(fù)責(zé),如有相關(guān)疑問,請聯(lián)系文章作者。)