換臉軟件ZAO遭遇滑鐵盧
或推動人工智能前瞻性立法進程
稿件來源: 法制日報
發布時間:2019-09-06 10:06:30

對話人

中國傳媒大學網絡法與知識產權研究中心主任             王四新

北京師范大學法學院網絡與智慧社會法治研究中心主任          劉德良

中國傳媒大學政法學院法律系副主任        ?!∧?/p>

《法制日報》記者         趙 麗

記者:針對AI深度換臉技術風險多發,有關網絡安全法律專家認為,必須高度警惕這種技術被惡意使用的風險,盡快開展法律風險評估。

王四新:我們需要對它進行安全評估,這種安全評估也是有法律依據的,網絡安全法、網信辦制定的規范性文件都有相應要求。安全評估需要弄清楚的是,實際運作過程中可能會存在哪些風險,針對這些風險,我們可以采取哪些措施。只有這些問題全部落實,才可以正常運轉。

記者:今年6月13日,美國眾議院情報委員會召開關于人工智能深度偽造的聽證會,公開談論了深度偽造技術對國家、社會和個人的風險及防范和應對措施。隨著AI技術的深度應用,也有不少業內人士提出,我們必須高度警惕這種技術被惡意使用的風險。但對深度偽造的內容不能一棍子打死,很多深度偽造的合成媒體內容具有存在的正當性,只有影響國家安全、公共安全、民主政治的虛假信息才需要加強監管和規制。涉及刑事犯罪和一般網絡侵權的深度偽造適用不同的規制。

王四新:要構建非常完備的內部制度,或者說構建一個比較好的體制和機制,對于這些發展過程中出現的問題,有一些特殊的流程。同時,還要建立有效的反饋機制。

鄭寧:對于深度偽造,要具體問題具體分析。如果不影響國家安全、公共安全、公民個人權利,比如電影特效,就不用太多干預,如果有影響才應當加以監管。具體的法律責任要看違法的嚴重程度,然后來判斷承擔民事責任、行政責任還是刑事責任。

記者:有專家建議,立法部門應緊跟國際人工智能技術最新進展,聯合國內專業研究力量,評估這項新技術可能帶來的法律風險,以及對國家安全等構成的威脅,加快對類似新興技術的前瞻性立法研究。

鄭寧:網絡安全法第十七條規定,國家推進網絡安全社會化服務體系建設,鼓勵有關企業、機構開展網絡安全認證、檢測和風險評估等安全服務。對于新技術,應該開展安全評估,評估可以由社會組織或企業自行開展,政府部門監督檢查。

王四新:網絡安全法是一個非常系統非常龐大的系統工程,需要企業全面履行主體責任,真正解決實踐中出現的這些問題。

劉德良:針對這種立法,可能在未來需要跨過一些坎。首先要轉變觀念,從關注個人信息的泄露轉到濫用的方向。我認為障礙就在于觀念問題,現在的主流看法都在強調泄露,而不在防止濫用上。

在觀念轉變之后,再組織專家商討、提案,或許情形很復雜,主體也不一樣、侵犯的權益也不盡相同,要系統地規范什么叫濫用,濫用有哪些類型,如何從民法、行政法、刑法有效防止濫用。如果沒有立法,司法也沒有意義。

記者:在您看來,防止泄露、絕對的保密是否無法做到,未來相關領域的立法重點應該在如何防止這些信息或數據的濫用?

劉德良:相關法律法規的建立完善要具有可操作性,不能不利于大數據和人工智能產業的發展。大數據、人工智能產業本身就需要數據搜集,現在我們的個人信息已經存在于N個商家和機構中,泄露了也不知道從哪里泄露的,防止的不是泄露,關鍵在于不能濫用。

從立法上要讓進行身份識別的機構或者平臺(比如銀行、支付平臺、電信公司、保險公司)去承擔責任。如果用戶的個人信息被盜用、濫用,有兩種思路去問責:一是對這些機構、平臺進行過錯推定,除非能證明履行了核實比對義務,這種義務的標準隨著技術、時代的變遷也會不斷升級改變,需要司法按照這個標準去判定取證,來確定是否盡到義務,才可以免責,否則就要和假冒者一起承擔連帶責任;二是更加嚴苛,承擔無過錯責任。

如果法律有這種規定,就會倒逼這些機構、平臺認真核查比對,甚至會想方設法開發更新的技術手段,來有效避免身份假冒濫用。如果不這樣立法,掌握個人信息的機構、平臺就會把風險轉嫁給被假冒者,讓個人承擔風險。

(責任編輯:金燕)
相關文章