文 | 楊德嘉 北京市海淀區(qū)人民法院民事審判五庭(知識產(chǎn)權(quán)審判庭)庭長
10月23日,由北京知識產(chǎn)權(quán)法研究會主辦的“視聽作品相關(guān)法律適用問題學(xué)術(shù)研討會”在北京成功舉辦,來自知識產(chǎn)權(quán)領(lǐng)域?qū)W術(shù)、司法界的近30位代表參加了本次會議,共同探討相關(guān)法律問題。北京市海淀區(qū)人民法院民事審判五庭(知識產(chǎn)權(quán)審判庭)庭長楊德嘉圍繞“算法推薦與平臺責(zé)任”進(jìn)行了主題演講,知產(chǎn)財經(jīng)將其演講內(nèi)容進(jìn)行了整理,以饗讀者。以下是其演講實錄。
非常感謝有這樣一個機(jī)會,能夠跟各位專家、各位同仁分享一些學(xué)習(xí)心得和體會。限于時間,我在此主要從三個方面簡單談一談與技術(shù)相關(guān)的法律問題。
第一,關(guān)于技術(shù)與應(yīng)用。在很多涉及算法推薦等技術(shù)的案件中,被告都會以技術(shù)中立為由抗辯免責(zé)。有一句很知名的話經(jīng)常被引用:“槍不殺人,是人殺人”。作為被告的平臺往往認(rèn)為自己只是造槍者,至于子彈會射向誰并不怪我。具體到法律糾紛中,持該種觀點的人經(jīng)常援引著名的“索尼Bebamax”案。在該案中,美國最高法院的多數(shù)大法官最終認(rèn)為,出售具有“非實質(zhì)性侵權(quán)用途”的錄像機(jī),并不不構(gòu)成幫助侵權(quán),索尼無需為個體消費者使用錄像機(jī)錄制電視節(jié)目的行為負(fù)責(zé)。
我們姑且不論是否存在絕對意義上的技術(shù)中立,因為在現(xiàn)實中,很多所謂中立技術(shù)的研發(fā)也是受到法律嚴(yán)格限制的,例如人類基因的改造、大規(guī)模殺傷性武器的研制等。即便拋開這些極端情況,回到日常的技術(shù)中立語境下,我們也有必要對“技術(shù)研發(fā)”與“技術(shù)應(yīng)用”加以區(qū)分。技術(shù)應(yīng)用,特別是市場化的應(yīng)用,永遠(yuǎn)不可能是中立的。市場中的技術(shù)應(yīng)用,往往帶有市場主體明確的目的性,融入了其鮮明的利益追求與價值選擇。我們在談?wù)摗凹夹g(shù)中立”時,應(yīng)注意避免落入“技術(shù)使用中立”的邏輯陷阱。槍當(dāng)然不能殺人,是人用槍殺了人,所以法律此時所關(guān)注的,并不是被使用的槍,而是開槍者應(yīng)當(dāng)對其用槍殺人的行為承擔(dān)什么責(zé)任。
回到算法推薦的場景中,我想也是同樣的邏輯。此時法律問題的本質(zhì)并不是作為工具的算法本身,而是平臺使用算法進(jìn)行內(nèi)容推送這一行為的性質(zhì)。在思考的過程中,我們還應(yīng)當(dāng)對不同案件之間的細(xì)節(jié)甚至是本質(zhì)差異加以辨別和區(qū)分。比如說索尼錄像機(jī)案,當(dāng)時的情況是,索尼在完成銷售之后,對于這些售出的錄像機(jī),無論是在技術(shù)上還是物理上,已經(jīng)完全失去了控制權(quán)。消費者買這個錄像機(jī)之后將如何使用,使用行為會產(chǎn)生什么樣的后果,索尼都是難以預(yù)判或者干預(yù)的。這種情況,與我們今天所面對的算法推薦問題,恐怕還是有一定區(qū)別的。
第二,關(guān)于主體與責(zé)任。近年來,我們在探討技術(shù)問題是,似乎很容易出現(xiàn)一種神秘化的傾向。類似“機(jī)器學(xué)習(xí)”“算法中立”“算法黑箱”“算法共謀”等模糊化,甚至是擬人化的表達(dá),在某種程度上容易對人們產(chǎn)生誤導(dǎo),很可能使我們在研究具體經(jīng)營活動中因算法推薦所引發(fā)的糾紛時,在責(zé)任主體、責(zé)任范圍等問題上出現(xiàn)判斷的偏差。最終,我們還是必須回到問題的本質(zhì)來進(jìn)行分析,即:是誰,在干什么,損害后果何以產(chǎn)生,法律責(zé)任如何承擔(dān)……公司法中有一個制度叫做“揭開公司面紗”,對我們今天所討論的這個話題很有借鑒意義。我們需要去思考在何種情況下應(yīng)當(dāng)“揭開算法面紗”,去研究算法推薦背后真正的主體、行為和責(zé)任。算法與平臺,通常是工具與使用者的關(guān)系。因此我們應(yīng)當(dāng)注意,對于算法開發(fā)者所適用的一些免責(zé)事由,例如技術(shù)中立等,并不能想當(dāng)然地照搬到算法使用者即平臺身上。
當(dāng)然,在談及算法推薦的法律責(zé)任時,還涉及到一個注意義務(wù)的分配問題。也就是說,即使算法推薦的后果具有一定的不確定性,那么從避免或減少侵權(quán)損害的角度,我們在所涉及到的平臺、用戶、社會公眾以及受到損害的權(quán)利人或市場經(jīng)營者等各種主體中,如何分配相應(yīng)的注意義務(wù)才會更有利于技術(shù)的正當(dāng)應(yīng)用,更有利于技術(shù)的不斷完善,更有利于保護(hù)知識產(chǎn)權(quán),更有利于維護(hù)公平的市場秩序,更有利于建立公眾對算法的信任,更有利于社會總體福利的增長?這個答案的作出,需要審慎探討,需要實事求是。尤其是應(yīng)當(dāng)契合當(dāng)今的產(chǎn)業(yè)狀況和技術(shù)水平等現(xiàn)實情況,以此為基礎(chǔ)對上述多方主體的利益進(jìn)行合理平衡。
第三,關(guān)于絕對與相對?!睹献印防镉羞@么一段話:“挾太山以超北海,語人曰:‘我不能’。是誠不能也。為長者折枝,語人曰:‘我不能’。是不為也,非不能也”。在平臺在使用算法的同時是否可以避免大規(guī)模地推送明顯侵權(quán)的內(nèi)容?在某些情況下可能并不是能不能的問題,而是愿不愿的問題。當(dāng)然,即使不愿,我們也要看其是否具有合理合法的事由,是否如“為長者折枝”一樣。此外,有一個客觀事實是顯而易見的:從來沒有任何一個“中立”的算法會導(dǎo)致平臺利益不斷受損,甚至把平臺自身算垮。當(dāng)然,我們并不能要求平臺的算法推薦結(jié)果在任何情況下都不能造成任何一點的損害后果,這并不是一個非黑即白的問題。在適用法律的過程中,我們還是應(yīng)當(dāng)給平臺留出一定的容錯余地,為其不斷發(fā)展、完善留有足夠的空間。對于小概率、小范圍、輕微的損害后果,相關(guān)各方應(yīng)予以容忍,但對大概率、大范圍、嚴(yán)重的侵權(quán)損害,平臺應(yīng)當(dāng)采用及時斷開、刪除鏈接以及優(yōu)化算法等必要措施加以制止和預(yù)防。
以上是我個人一些不成熟的觀點,請大家批評指正。謝謝!