小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

生成式人工智能對(duì)個(gè)人信息保護(hù)的挑戰(zhàn)與治理路徑

 ChinaAET 2024-05-13 發(fā)布于北京
作者:
萬(wàn)美秀
作者單位:
1.南昌大學(xué)法學(xué)院
摘要:
以ChatGPT為代表的生成式人工智能技術(shù)給各行各業(yè)帶來(lái)顛覆性變革,但也引發(fā)個(gè)人信息泄露、算法偏見(jiàn)、虛假信息傳播等個(gè)人信息侵權(quán)危機(jī)。傳統(tǒng)“基于權(quán)利保護(hù)”的路徑過(guò)于強(qiáng)調(diào)個(gè)人信息保護(hù)而阻礙人工智能產(chǎn)業(yè)的發(fā)展,“基于風(fēng)險(xiǎn)防范”的路徑則更加凸顯個(gè)人信息的合理利用價(jià)值,價(jià)值選擇上更優(yōu)。但以權(quán)利保護(hù)和風(fēng)險(xiǎn)保護(hù)共同治理,才能實(shí)現(xiàn)利益平衡并建立個(gè)人信息的長(zhǎng)效保護(hù)機(jī)制。在個(gè)人信息處理規(guī)則上,以“弱同意”規(guī)則取代僵化嚴(yán)苛的知情同意規(guī)則;在目的限制原則上,以“風(fēng)險(xiǎn)限定”取代“目的限定”;在個(gè)人信息最小化原則上,以“風(fēng)險(xiǎn)最小化”取代“目的最小化”。在此基礎(chǔ)上,進(jìn)一步加強(qiáng)生成式人工智能數(shù)據(jù)來(lái)源合規(guī)監(jiān)管,提升算法透明性和可解釋性,強(qiáng)化科技倫理規(guī)范和侵權(quán)責(zé)任追究。

0引言
以ChatGPT為代表的生成式人工智能掀起了全球第四次科技革命浪潮,成為帶動(dòng)全球經(jīng)濟(jì)增長(zhǎng)的新引擎[1]。然而,作為新一代人工智能技術(shù),生成式人工智能在不斷迭代更新與變革生產(chǎn)關(guān)系的同時(shí),也帶來(lái)了諸多個(gè)人信息保護(hù)的法律風(fēng)險(xiǎn)。生成式人工智能的運(yùn)行以海量用戶的個(gè)人信息為基礎(chǔ),在輸入端、模擬訓(xùn)練端、模擬優(yōu)化端、輸出端等各環(huán)節(jié)都離不開個(gè)人信息的使用。在大規(guī)模的數(shù)據(jù)處理和不透明的算法黑箱背景下,生成式人工智能便產(chǎn)生了違法收集個(gè)人信息、制造虛假有害信息、算法偏見(jiàn)與歧視等問(wèn)題。
對(duì)此,各國(guó)監(jiān)管部門廣泛關(guān)注,美國(guó)、法國(guó)、意大利、西班牙、加拿大等多國(guó)政府已宣布對(duì)ChatGPT進(jìn)行調(diào)查監(jiān)管,并出臺(tái)了相應(yīng)監(jiān)管規(guī)范。2023年7月10日,我國(guó)網(wǎng)信辦等七部門也聯(lián)合發(fā)布了《生成式人工智能服務(wù)管理暫行辦法》(以下簡(jiǎn)稱“《暫行辦法》”),明確了促進(jìn)生成式人工智能技術(shù)發(fā)展的具體措施,對(duì)支持和規(guī)范生成式人工智能發(fā)展作出了積極有力的回應(yīng)。但需要注意的是,《暫行辦法》對(duì)個(gè)人信息保護(hù)的規(guī)定僅在第4、7、9、11、19條中援引《個(gè)人信息保護(hù)法》的相關(guān)規(guī)定,對(duì)使用生成式人工智能技術(shù)侵犯?jìng)€(gè)人信息權(quán)益呈現(xiàn)出的新問(wèn)題缺乏專門規(guī)定,而繼續(xù)延用《個(gè)人信息保護(hù)法》面臨諸多適用困境。如何在促進(jìn)生成式人工智能技術(shù)創(chuàng)新發(fā)展與個(gè)人信息安全之間尋求平衡,是新一代人工智能技術(shù)向人類提出的時(shí)代難題。鑒于此,本文擬以生成式人工智能技術(shù)的運(yùn)行邏輯出發(fā),分析生成式人工智能對(duì)個(gè)人信息保護(hù)帶來(lái)的挑戰(zhàn),并以《民法典》《個(gè)人信息保護(hù)法》《暫行辦法》體現(xiàn)的精神為線索,從個(gè)人信息保護(hù)的治理原則和治理路徑方面展開討論,在此基礎(chǔ)上提出具體治理對(duì)策,以期為生成式人工智能技術(shù)應(yīng)用對(duì)個(gè)人信息保護(hù)帶來(lái)的系列問(wèn)題提供初步解決方案,為解決人工智能時(shí)代個(gè)人信息保護(hù)問(wèn)題作出有益探索。
1生成式人工智能的運(yùn)行邏輯
目前人工智能技術(shù)主要有兩種類型:決策式人工智能/分析式人工智能(Discriminant/Analytical AI)和生成式人工智能(Generative AI)[2]。其中,決策式人工智能是利用機(jī)器學(xué)習(xí)、深度學(xué)習(xí)和計(jì)算機(jī)視覺(jué)技術(shù)來(lái)訓(xùn)練數(shù)據(jù)中的條件概率分布情況并做出決策,判斷樣本數(shù)據(jù)屬于特定目標(biāo)的概率。而生成式人工智能是利用深度神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)輸入和訓(xùn)練數(shù)據(jù),并對(duì)已有的大規(guī)模數(shù)據(jù)集進(jìn)行歸納總結(jié),從中抽象出數(shù)據(jù)的本質(zhì)規(guī)律和概率分布,再基于這些規(guī)律和概率分布情況生成新的數(shù)據(jù)。2014年提出的“生成式對(duì)抗網(wǎng)絡(luò)”深度學(xué)習(xí)模型最具影響力,其通過(guò)生成器和判別器使生成的數(shù)據(jù)富有原創(chuàng)性。此后,隨著自然語(yǔ)言處理算法“循環(huán)神經(jīng)網(wǎng)絡(luò)”“預(yù)訓(xùn)練語(yǔ)言模型”“Transformer”等技術(shù)的突破,生成式人工智能迅速發(fā)展,廣泛應(yīng)用于內(nèi)容生成、人機(jī)交互、產(chǎn)品設(shè)計(jì)等領(lǐng)域。以ChatGPT為例,由美國(guó)OpenAI公司推出的GPT4是以Transformer模型為基礎(chǔ),預(yù)訓(xùn)練用于預(yù)測(cè)文檔中的下一個(gè)指令,使用公開可用的數(shù)據(jù)(如互聯(lián)網(wǎng)數(shù)據(jù))和第三方提供商許可的數(shù)據(jù),對(duì)來(lái)自人類的反饋強(qiáng)化學(xué)習(xí)模型進(jìn)行微調(diào)[3]。經(jīng)過(guò)預(yù)先訓(xùn)練,當(dāng)用戶輸入問(wèn)題時(shí),ChatGPT會(huì)將問(wèn)題轉(zhuǎn)換為計(jì)算機(jī)數(shù)據(jù)并使用算法模型形成相應(yīng)的文本、圖片、視頻等數(shù)據(jù)集,通過(guò)不斷改進(jìn)和優(yōu)化,最終從符合要求的數(shù)據(jù)集中輸出具有一定原創(chuàng)性的新內(nèi)容。其運(yùn)行原理如圖1所示。
圖1生成式人工智能的運(yùn)行原理
從ChatGPT的底層運(yùn)行邏輯可以看出,新一代生成式人工智能的發(fā)展得益于算法、算力與數(shù)據(jù)的應(yīng)用和技術(shù)突破。在算法層面,它以預(yù)訓(xùn)練語(yǔ)言模型(LM)作為初始模型生成基本符合要求的內(nèi)容,再收集數(shù)據(jù)并訓(xùn)練打分模型(BM)以評(píng)估生成內(nèi)容是否符合人類的方式,最后通過(guò)強(qiáng)化學(xué)習(xí)(RL)迭代式更新打分模型以生成高質(zhì)量且符合人類認(rèn)知的內(nèi)容[4]。在算力層面,生成式人工智能的運(yùn)行需要有效地執(zhí)行復(fù)雜的計(jì)算任務(wù)并通過(guò)不斷訓(xùn)練和推理來(lái)優(yōu)化生成內(nèi)容。在數(shù)據(jù)層面,訓(xùn)練和優(yōu)化人工智能模型需要大量的數(shù)據(jù),而運(yùn)用網(wǎng)絡(luò)爬蟲技術(shù)便可以獲得來(lái)自社交媒體、公共機(jī)構(gòu)、傳感器等多渠道的海量數(shù)據(jù)。因此,生成式人工智能的不斷優(yōu)化與迭代發(fā)展,離不開上述算力、算法與數(shù)據(jù)三駕馬車的驅(qū)動(dòng),數(shù)據(jù)是生成式人工智能訓(xùn)練的基礎(chǔ),算法是生成式人工智能優(yōu)化的核心,算力則為生成式人工智能發(fā)展提供技術(shù)支撐和保障。然而,作為生成式人工智能訓(xùn)練基礎(chǔ)的海量數(shù)據(jù)是開發(fā)者通過(guò)各種方式收集的,其中涉及大量的個(gè)人信息處理行為,開發(fā)者并沒(méi)有完全依據(jù)《個(gè)人信息保護(hù)法》等相關(guān)規(guī)定來(lái)處理,給個(gè)人信息保護(hù)帶來(lái)諸多風(fēng)險(xiǎn)和挑戰(zhàn)。
2生成式人工智能對(duì)個(gè)人信息保護(hù)的挑戰(zhàn)
21輸入端:非法抓取與過(guò)度收集
生成式人工智能的輸入端是個(gè)人信息泄露的源頭,其法律風(fēng)險(xiǎn)主要集中在兩個(gè)階段:一是模擬訓(xùn)練端的初始數(shù)據(jù)庫(kù),二是模擬優(yōu)化端的更新數(shù)據(jù)庫(kù)。
從初始數(shù)據(jù)庫(kù)來(lái)看,生成式人工智能存在大量非法抓取個(gè)人信息的“黑歷史”,處理個(gè)人信息的告知同意規(guī)則被虛置。我國(guó)《個(gè)人信息保護(hù)法》《民法典》等明確規(guī)定了處理個(gè)人信息應(yīng)當(dāng)履行告知義務(wù)并取得個(gè)人同意,合理處理公開的個(gè)人信息則無(wú)須個(gè)人同意,但也應(yīng)當(dāng)履行告知義務(wù)[5]。以生成式人工智能ChatGPT為例,其初始數(shù)據(jù)庫(kù)主要是利用網(wǎng)絡(luò)爬蟲技術(shù)從公開渠道獲取的2021年之前的數(shù)據(jù),其中包含大量賬戶信息、社交媒體信息、行蹤軌跡等個(gè)人信息。然而大部分用戶并不知曉個(gè)人數(shù)據(jù)被用于模擬訓(xùn)練,更談不上“同意”。在深度學(xué)習(xí)與無(wú)監(jiān)督式學(xué)習(xí)模式下,大量對(duì)個(gè)人權(quán)益有重大影響的公開個(gè)人信息被非法抓取,告知同意規(guī)則形同虛設(shè)。據(jù)此,對(duì)于現(xiàn)階段已經(jīng)抓取并應(yīng)用于生成式人工智能模擬訓(xùn)練的初始數(shù)據(jù)庫(kù),應(yīng)當(dāng)如何確保其合理使用并防止對(duì)個(gè)人權(quán)益造成侵害便成為當(dāng)下亟需解決的難題。
從更新數(shù)據(jù)庫(kù)來(lái)看,生成式人工智能存在長(zhǎng)期過(guò)度收集個(gè)人信息的“不良行為”,個(gè)人信息最小化原則被架空。與人類一樣,生成式人工智能并不能憑借固有的知識(shí)體系一勞永逸地生存,其也需要不斷更新數(shù)據(jù)以提高輸出內(nèi)容的準(zhǔn)確度和可信度。但事實(shí)上,該階段的個(gè)人信息收集和處理規(guī)則也并沒(méi)有得到貫徹。
第一,目的限制原則面臨適用困境。我國(guó)《個(gè)人信息保護(hù)法》第6條第1款規(guī)定,處理個(gè)人信息應(yīng)當(dāng)具備明確、合理的目的,并與處理目的直接相關(guān)。第17條規(guī)定,處理個(gè)人信息發(fā)生變更的應(yīng)當(dāng)及時(shí)告知。從OpenAI官網(wǎng)公布的企業(yè)隱私政策來(lái)看,其宣稱可能將個(gè)人信息用于“改善服務(wù)、開發(fā)新的項(xiàng)目、防止濫用服務(wù)實(shí)施犯罪、進(jìn)行業(yè)務(wù)轉(zhuǎn)讓等目的”[6],但該表述具有高度的概括性和模糊性,對(duì)個(gè)人信息的保存期限、刪除、變更告知情況也沒(méi)有作出相應(yīng)說(shuō)明,用戶只能選擇接受否則便無(wú)法繼續(xù)使用。此外,從技術(shù)層面看,目前生成式人工智能也無(wú)法自動(dòng)識(shí)別“與處理目的有關(guān)的信息”,而是采取“一攬子概括協(xié)議”全部抓取,無(wú)疑加劇了個(gè)人信息權(quán)益侵害的風(fēng)險(xiǎn)。
第二,個(gè)人信息最小化原則面臨適用困境。根據(jù)《個(gè)人信息保護(hù)法》第6條第2款規(guī)定,收集個(gè)人信息應(yīng)當(dāng)限于實(shí)現(xiàn)處理目的的最小范圍,即所謂的“個(gè)人信息最小化原則”。從OpenAI官網(wǎng)公布的隱私政策第1、2、3條來(lái)看,其可以收集包括用戶賬戶信息、通信信息、技術(shù)信息、社交信息、輸入或上傳的內(nèi)容信息以及提供的其他任何信息。但諸如訪問(wèn)設(shè)備類型、操作系統(tǒng)、服務(wù)互動(dòng)方式、其他任何可獲取的信息等并非使用生成式人工智能服務(wù)所必備的信息,OpenAI公司將所有用戶信息全部囊括其中,顯然屬于過(guò)度收集個(gè)人信息的行為,違反個(gè)人信息最小必要原則。
第三,敏感個(gè)人信息處理規(guī)則面臨適用困境?!秱€(gè)人信息保護(hù)法》將個(gè)人信息分為一般個(gè)人信息和敏感個(gè)人信息,由于敏感個(gè)人信息泄露將對(duì)個(gè)人人身、財(cái)產(chǎn)造成嚴(yán)重威脅,因而法律規(guī)定了特別處理規(guī)則。根據(jù)《個(gè)人信息保護(hù)法》第28、29條,處理個(gè)人敏感信息應(yīng)當(dāng)在特定目的和充分必要的情況下取得個(gè)人單獨(dú)同意并采取嚴(yán)格的保護(hù)措施。然而,生成式人工智能在收集用戶個(gè)人信息時(shí)并未作任何區(qū)分。更為重要的是,其將用戶使用的所有歷史信息傳輸至終端服務(wù)器并實(shí)時(shí)保存于云端,用于未來(lái)模型的優(yōu)化訓(xùn)練。雖然OpenAI官網(wǎng)隱私政策第2條中宣稱ChatGPT收集到的所有個(gè)人信息會(huì)進(jìn)行匯總或標(biāo)識(shí)化處理,但第3條隨即指出將與第三方進(jìn)行共享。而一旦借助第三方額外信息和有關(guān)技術(shù)手段,即使經(jīng)過(guò)匿名化處理的信息仍然具有可識(shí)別性[7]。去標(biāo)識(shí)化處理的個(gè)人信息將面臨重新識(shí)別的風(fēng)險(xiǎn),由此便加劇了個(gè)人信息泄露危機(jī)。2023年3月20日ChatGPT就發(fā)生過(guò)部分用戶聊天記錄、信用卡付款信息和電子郵件等敏感個(gè)人信息泄露事件,引發(fā)各國(guó)監(jiān)管部門對(duì)個(gè)人信息保護(hù)的擔(dān)憂。由此可見(jiàn),現(xiàn)行立法對(duì)生成式人工智能侵害個(gè)人信息權(quán)益的行為缺乏專門性規(guī)定,無(wú)法給個(gè)人提供明確的行為預(yù)期。
22模擬訓(xùn)練端:算法黑箱和過(guò)度挖掘
在生成式人工智能的模擬訓(xùn)練端,離不開算法的運(yùn)用,而不公開、不透明的“算法黑箱”引發(fā)個(gè)人數(shù)據(jù)侵權(quán)危機(jī),處理個(gè)人信息的公開透明原則難以貫徹。根據(jù)《個(gè)人信息保護(hù)法》第7條、24條規(guī)定,處理個(gè)人信息應(yīng)當(dāng)遵循公開透明原則,利用個(gè)人信息進(jìn)行自動(dòng)化決策的也應(yīng)當(dāng)保證決策的透明度和結(jié)果公平、公正。而生成式人工智能的算法運(yùn)行的本質(zhì)是數(shù)據(jù)輸入、輸出的過(guò)程,但在輸入和輸出之間存在無(wú)法解釋的“黑洞”,引發(fā)“算法黑箱”問(wèn)題[8]。更為重要的是,生成式人工智能的算法較此前的人工智能有了進(jìn)一步提升,其并不遵循傳統(tǒng)算法數(shù)據(jù)輸入、邏輯推理、預(yù)測(cè)的過(guò)程,而是借助于深度學(xué)習(xí)模型逐漸具備了一定的自主學(xué)習(xí)、自主決策能力,直接在原始數(shù)據(jù)的基礎(chǔ)上經(jīng)過(guò)自主學(xué)習(xí)而生成新作品[9]。隨著生成式人工智能算法自主學(xué)習(xí)的頻次不斷增加,算法不斷迭代,導(dǎo)致技術(shù)隱層愈發(fā)復(fù)雜,而其邏輯又超越了一般大眾所能理解的范圍,加之信息上的不對(duì)稱更加深了算法的不透明度與不可理解性,加劇了算法的“黑箱”屬性,顯然無(wú)法保障算法背后隱含的結(jié)果公平公正,直接違背個(gè)人信息處理的公開透明原則。目前ChatGPT至今未曾公布其算法規(guī)則,百度推出的“文心一言”、阿里云推出的“通義千問(wèn)”等亦未公布,顯然對(duì)《個(gè)人信息保護(hù)法》規(guī)定的公開透明原則提出了嚴(yán)峻挑戰(zhàn)。
在模擬訓(xùn)練和模擬優(yōu)化過(guò)程中,生成式人工智能通過(guò)深度學(xué)習(xí)的算法模型對(duì)個(gè)人信息過(guò)度挖掘,使得去標(biāo)識(shí)化的個(gè)人信息甚至匿名化信息被重新識(shí)別,加劇了個(gè)人信息泄露風(fēng)險(xiǎn)。生成式人工智能對(duì)個(gè)人信息的使用并不局限于傳統(tǒng)人工智能的簡(jiǎn)單加工,而是通過(guò)極強(qiáng)的推理能力進(jìn)行深度挖掘,發(fā)現(xiàn)信息主體之間隱藏的內(nèi)在聯(lián)系。如加州大學(xué)伯克利分校的一項(xiàng)研究表明,人工智能系統(tǒng)可以分析用戶在 AR 和 VR 環(huán)境中的運(yùn)動(dòng)數(shù)據(jù),從中推斷出數(shù)百個(gè)相關(guān)參數(shù),并以驚人的準(zhǔn)確性揭示個(gè)人信息。事實(shí)上,在現(xiàn)有技術(shù)條件下即使生成式人工智能訓(xùn)練數(shù)據(jù)集中沒(méi)有某人的個(gè)人信息,但結(jié)合其他信息在深度挖掘的基礎(chǔ)上也可以推測(cè)出其特征,比如性別、年齡、種族、學(xué)歷等??梢?jiàn),新一代人工智能表現(xiàn)出極強(qiáng)的自主學(xué)習(xí)能力、深度合成能力和邏輯推理能力,對(duì)個(gè)人信息保護(hù)帶來(lái)極大挑戰(zhàn)。
23輸出端:算法偏見(jiàn)和虛假信息
在生成式人工智能的輸出端,由于算法本身不具有技術(shù)中立性,而“算法黑箱”又加劇了算法非中立性,引發(fā)輸出結(jié)果偏見(jiàn)。首先,在算法設(shè)計(jì)上,生成式人工智能的底層算法都是由帶有主觀偏好的開發(fā)者設(shè)計(jì)的,而開發(fā)者的固有認(rèn)知偏見(jiàn)不可避免地會(huì)形成算法偏見(jiàn)。其次,在深度學(xué)習(xí)技術(shù)上,生成式人工智能的自主學(xué)習(xí)能力不斷迭代發(fā)展,但機(jī)器學(xué)習(xí)不會(huì)對(duì)數(shù)據(jù)庫(kù)中的信息進(jìn)行價(jià)值取向篩選,導(dǎo)致生成式人工智能形成并加深開發(fā)者嵌入其中的算法偏見(jiàn)。最后,在數(shù)據(jù)來(lái)源上,模擬訓(xùn)練的數(shù)據(jù)質(zhì)量參差不齊,大量虛假數(shù)據(jù)、缺失數(shù)據(jù)、污染數(shù)據(jù)、不全面數(shù)據(jù)輸入導(dǎo)致最終生成帶有歧視性的內(nèi)容。另外,“算法黑箱”所具有的不公開、不透明性為“算法偏見(jiàn)”披上了合理的技術(shù)外衣,導(dǎo)致偏見(jiàn)行為難以被發(fā)現(xiàn),從而加劇對(duì)特定群體的歧視和偏見(jiàn),也給傳統(tǒng)的平等權(quán)保護(hù)帶來(lái)危機(jī)[10]。盡管OpenAI公司在其官網(wǎng)上聲明,ChatGPT已通過(guò)算法設(shè)置和模擬訓(xùn)練進(jìn)行了優(yōu)化,能在一定程度上拒絕用戶不合理的請(qǐng)求,比如生成帶有性別歧視、種族歧視、暴力、血腥、色情等違反法律、公序良俗的內(nèi)容,但事實(shí)上,其給使用者和非使用者帶來(lái)的風(fēng)險(xiǎn)依然存在。此前亞馬遜便被爆出利用人工智能訓(xùn)練的算法進(jìn)行招聘,存在重男輕女的性別歧視問(wèn)題。可見(jiàn),算法偏見(jiàn)呈現(xiàn)出種種不合理的區(qū)別對(duì)待,引發(fā)深層次的不平等和歧視問(wèn)題。
在生成式人工智能的輸出端,行為人還可以利用深度偽造、深度合成等技術(shù)生成虛假信息來(lái)實(shí)施侮辱誹謗、造謠傳謠、財(cái)產(chǎn)詐騙等犯罪,《個(gè)人信息保護(hù)法》第7條規(guī)定的個(gè)人信息真實(shí)性、準(zhǔn)確性無(wú)法得到保障。由于生成式人工智能對(duì)輸入數(shù)據(jù)的真實(shí)性和準(zhǔn)確性并沒(méi)有甄別能力,因此它也并不保證輸出結(jié)果的真實(shí)性和準(zhǔn)確性,可能出現(xiàn)“一本正經(jīng)地胡說(shuō)八道”、輸出“正確的廢話”、制造虛假新聞等問(wèn)題,從而侵犯?jìng)€(gè)人信息權(quán)益。更為重要的是,這一缺陷很容易被不法分子利用來(lái)實(shí)施犯罪。2023年4月25日甘肅洪某便利用人工智能技術(shù)炮制了一則“今晨甘肅一火車撞上修路工人,致9人死亡”的虛假信息牟利被警方立案調(diào)查??梢?jiàn),生成式人工智能的出現(xiàn)導(dǎo)致大量虛假信息的生成和傳播,侵害個(gè)人信息權(quán)益,引發(fā)嚴(yán)重的社會(huì)問(wèn)題。
生成式人工智能對(duì)個(gè)人信息保護(hù)的挑戰(zhàn)如圖2所示。
圖2生成式人工智能對(duì)個(gè)人信息保護(hù)的挑戰(zhàn)
3生成式人工智能背景下個(gè)人信息保護(hù)的治理路徑
31“權(quán)利保護(hù)”與“風(fēng)險(xiǎn)防范”共同治理
基于上述,生成式人工智能對(duì)個(gè)人信息保護(hù)帶來(lái)諸多風(fēng)險(xiǎn)和挑戰(zhàn)。對(duì)此,《民法典》《個(gè)人信息保護(hù)法》《暫行辦法》規(guī)定的傳統(tǒng)個(gè)人信息保護(hù)規(guī)則均面臨適用困境。究其根源,在于個(gè)體主義與靜態(tài)化的個(gè)人信息保護(hù)進(jìn)路難以適應(yīng)科技的發(fā)展,亟需尋求更為合理的個(gè)人信息保護(hù)制度緩和二者之間的張力?;谝匀藶楸镜睦砟睿髲?qiáng)化個(gè)人信息保護(hù);基于促進(jìn)和規(guī)范人工智能產(chǎn)業(yè)的發(fā)展、鼓勵(lì)創(chuàng)新的理念,要求對(duì)個(gè)人信息保護(hù)進(jìn)行一定限制。因此,唯有正確認(rèn)識(shí)并協(xié)調(diào)個(gè)人信息保護(hù)與生成式人工智能創(chuàng)新發(fā)展之間的關(guān)系,才能讓人工智能更好地服務(wù)于經(jīng)濟(jì)的發(fā)展和社會(huì)的進(jìn)步。
從總體監(jiān)管原則來(lái)看,世界各國(guó)對(duì)生成式人工智能的發(fā)展存在“保守”與“開放”兩種立法態(tài)度,并出臺(tái)了相應(yīng)法律法規(guī)進(jìn)行規(guī)制。歐洲國(guó)家基于兩次世界大戰(zhàn)及法西斯大規(guī)模嚴(yán)重侵害人權(quán)的慘劇,高度重視人格尊嚴(yán)與人格自由等基本人權(quán)的保護(hù)[11],因此,長(zhǎng)期以來(lái)對(duì)人工智能的監(jiān)管較為謹(jǐn)慎,采取“先規(guī)范后發(fā)展,穩(wěn)步推動(dòng)監(jiān)管”的治理原則,以《通用數(shù)據(jù)保護(hù)條例》《可信AI倫理指南》確立了歐盟地區(qū)人工智能發(fā)展的倫理框架,以《人工智能法》《可信賴的人工智能倫理準(zhǔn)則》進(jìn)一步加強(qiáng)了可操作化法律規(guī)制。美國(guó)則基于ChatGPT產(chǎn)生的巨大影響以及維持自身在人工智能領(lǐng)域國(guó)際領(lǐng)先地位的需要,對(duì)人工智能的治理相對(duì)開放,采取“審慎監(jiān)管以促進(jìn)產(chǎn)業(yè)創(chuàng)新”的治理原則,相繼出臺(tái)《美國(guó)人工智能倡議》《人工智能能力和透明度法案》等以企業(yè)自我規(guī)制和政府規(guī)制相結(jié)合推進(jìn)人工智能產(chǎn)業(yè)發(fā)展[12]。從我國(guó)《暫行辦法》第3條來(lái)看,我國(guó)對(duì)生成式人工智能的發(fā)展總體上秉持開放包容的態(tài)度,穩(wěn)步推進(jìn)人工智能產(chǎn)業(yè)的發(fā)展。一方面,堅(jiān)持以人為本的理念保障基本人權(quán),維護(hù)個(gè)人信息和個(gè)人利益以實(shí)現(xiàn)個(gè)人自治。另一方面,兼顧人工智能時(shí)代個(gè)人信息利用的新環(huán)境和新方式,對(duì)個(gè)人信息保護(hù)作出必要限制以維護(hù)公共利益和社會(huì)利益。換言之,在個(gè)人信息相對(duì)安全的前提下調(diào)整個(gè)人信息強(qiáng)保護(hù)規(guī)則,合理開發(fā)和利用個(gè)人信息以推動(dòng)人工智能產(chǎn)業(yè)的發(fā)展,從而在個(gè)人權(quán)益保護(hù)與企業(yè)利益維護(hù)之間尋求平衡。
從具體個(gè)人信息保護(hù)規(guī)則來(lái)看,生成式人工智能背景下我國(guó)個(gè)人信息保護(hù)存在“基于權(quán)利保護(hù)”與“基于風(fēng)險(xiǎn)防范”兩種路徑。其中,“基于權(quán)利保護(hù)”路徑源于美國(guó)1973年誕生的公平信息實(shí)踐原則,其通過(guò)對(duì)個(gè)人進(jìn)行信息賦權(quán)和對(duì)信息處理者施加義務(wù)的方式保障個(gè)體行使控制性權(quán)利[13]。但由于個(gè)人信息不僅關(guān)系到個(gè)人利益,還具有公共性和社會(huì)性[14],個(gè)人信息強(qiáng)保護(hù)的規(guī)則難以維護(hù)公共利益并適應(yīng)人工智能時(shí)代的發(fā)展。因此,一種“基于風(fēng)險(xiǎn)防范”的方法被提出,并逐步應(yīng)用于各國(guó)個(gè)人信息保護(hù)的立法。2013年,知名智庫(kù)數(shù)字歐洲提出了改革歐盟個(gè)人數(shù)據(jù)保護(hù)法的方案,從強(qiáng)化企業(yè)負(fù)責(zé)性而非信息主體的控制權(quán)利切入,要求企業(yè)設(shè)計(jì)規(guī)則防止風(fēng)險(xiǎn)的發(fā)生[15]。其后歐盟《通用數(shù)據(jù)保護(hù)條例》在修改其個(gè)人數(shù)據(jù)保護(hù)法時(shí),就引入了這種“基于風(fēng)險(xiǎn)”(risk-based)防范的方法。在歐盟《人工智能法案》中也確立了以風(fēng)險(xiǎn)分級(jí)治理的規(guī)制路徑并對(duì)各等級(jí)進(jìn)行差異化監(jiān)管。我國(guó)制定的《個(gè)人信息保護(hù)法》也體現(xiàn)了“基于風(fēng)險(xiǎn)”防范的理論。比如將個(gè)人信息區(qū)分為“一般個(gè)人信息”與“敏感個(gè)人信息”并且分別規(guī)定了不同的處理規(guī)則,實(shí)際上就隱含了一種先驗(yàn)的、抽象于具體場(chǎng)景的風(fēng)險(xiǎn)推定,即對(duì)敏感個(gè)人信息的處理可能對(duì)個(gè)人和社會(huì)產(chǎn)生較為嚴(yán)重的不利影響[16]。
筆者認(rèn)為,“基于風(fēng)險(xiǎn)防范”理論能夠更好地應(yīng)對(duì)生成式人工智能對(duì)個(gè)人信息權(quán)益侵害帶來(lái)的系列問(wèn)題,適用該理論具有正當(dāng)性。第一,《暫行辦法》體現(xiàn)了我國(guó)政策制定者嘗試從“基于風(fēng)險(xiǎn)防范”的治理路徑出發(fā)解決生成式人工智能帶來(lái)的個(gè)人信息保護(hù)難題。從《暫行辦法》第5條第2款可以看出,個(gè)人信息處理者仍有義務(wù)采取適當(dāng)措施來(lái)防范個(gè)人信息處理過(guò)程中可能出現(xiàn)的各種社會(huì)風(fēng)險(xiǎn)。從某種意義上看,該政策的出臺(tái)也為未來(lái)人工智能領(lǐng)域法律的制定及風(fēng)險(xiǎn)防范理論的應(yīng)用提供了有效指引。第二,“風(fēng)險(xiǎn)社會(huì)”要求“風(fēng)險(xiǎn)控制”。當(dāng)代社會(huì)是一個(gè)“風(fēng)險(xiǎn)社會(huì)”,風(fēng)險(xiǎn)無(wú)處不在、不可預(yù)測(cè)且常常帶來(lái)難以彌補(bǔ)的損害。一旦生成式人工智能收集的個(gè)人信息被泄露或不當(dāng)使用,將給個(gè)人信息主體帶來(lái)不可逆轉(zhuǎn)的損害。因此,改變以往單一的賦權(quán)保護(hù)模式和事后追責(zé)機(jī)制,從風(fēng)險(xiǎn)防范的角度強(qiáng)化事先風(fēng)險(xiǎn)預(yù)防更具有制度優(yōu)勢(shì),即從風(fēng)險(xiǎn)控制的維度構(gòu)建個(gè)人信息的全面保護(hù)制度,強(qiáng)化信息處理者的風(fēng)險(xiǎn)防范責(zé)任與信息主體的個(gè)人預(yù)防責(zé)任。第三,“基于風(fēng)險(xiǎn)防范”的路徑有利于實(shí)現(xiàn)利益平衡,促進(jìn)人工智能產(chǎn)業(yè)的發(fā)展。相較而言,“基于權(quán)利保護(hù)”路徑對(duì)個(gè)人信息進(jìn)行“強(qiáng)保護(hù)”而忽視了個(gè)人信息的合理利用價(jià)值,無(wú)法應(yīng)對(duì)新時(shí)代的發(fā)展和風(fēng)險(xiǎn)日益突出的現(xiàn)代社會(huì)個(gè)人信息侵權(quán)危機(jī)?!盎陲L(fēng)險(xiǎn)防范”路徑則是一種折中治理方案,通過(guò)適當(dāng)擴(kuò)張個(gè)人信息合理利用的范圍,從風(fēng)險(xiǎn)控制的角度強(qiáng)化信息處理者的風(fēng)險(xiǎn)防范義務(wù)與信息主體的個(gè)人風(fēng)險(xiǎn)責(zé)任,并對(duì)具體場(chǎng)景可能發(fā)生的風(fēng)險(xiǎn)進(jìn)行事先預(yù)防與責(zé)任分配,在預(yù)防風(fēng)險(xiǎn)的發(fā)生與事后救濟(jì)上價(jià)值選擇更優(yōu)。但需要注意的是,本文主張的“基于風(fēng)險(xiǎn)防范”的治理路徑并非完全拋開“基于權(quán)利保護(hù)”來(lái)談,而是弱化“強(qiáng)權(quán)利”保護(hù)模式以實(shí)現(xiàn)個(gè)人信息的合理利用價(jià)值。誠(chéng)然,個(gè)人信息權(quán)益作為自然人最基本的人格權(quán),仍然應(yīng)當(dāng)?shù)玫交镜臋?quán)利保護(hù)。堅(jiān)持“基于權(quán)利保護(hù)”和“基于風(fēng)險(xiǎn)防范”兩種路徑共同治理,才能實(shí)現(xiàn)各主體的利益平衡,構(gòu)建個(gè)人信息的長(zhǎng)效保護(hù)機(jī)制。
32構(gòu)建數(shù)據(jù)來(lái)源合規(guī)監(jiān)管機(jī)制
解決生成式人工智能輸入端的非法抓取和過(guò)度收集個(gè)人信息問(wèn)題,要從數(shù)據(jù)源頭預(yù)防,建立數(shù)據(jù)來(lái)源合規(guī)監(jiān)管機(jī)制。對(duì)于初始數(shù)據(jù)庫(kù),由于信息權(quán)利人已經(jīng)喪失了個(gè)人信息的自主控制權(quán),應(yīng)當(dāng)尋求事后補(bǔ)救措施來(lái)維護(hù)其合法權(quán)益。第一,在技術(shù)層面上,服務(wù)提供者應(yīng)當(dāng)采取嚴(yán)格的保護(hù)措施防止個(gè)人信息泄露。比如對(duì)已經(jīng)去標(biāo)識(shí)化的信息采取脫敏、加密等技術(shù)手段進(jìn)一步匿名化,使其無(wú)法重新識(shí)別到特定自然人。第二,在侵權(quán)責(zé)任承擔(dān)上,要考慮生成式人工智能事先未經(jīng)許可收集個(gè)人信息存在過(guò)錯(cuò)、對(duì)侵權(quán)行為發(fā)生沒(méi)有盡到必要注意義務(wù)、事后未采取補(bǔ)救措施等因素對(duì)其加重處罰。倒逼服務(wù)提供者對(duì)已經(jīng)收集而未經(jīng)許可獲取的個(gè)人信息原始數(shù)據(jù)庫(kù)定期開展合規(guī)監(jiān)測(cè),強(qiáng)化其個(gè)人信息安全保障義務(wù)。
對(duì)于更新數(shù)據(jù)庫(kù),服務(wù)提供者也應(yīng)當(dāng)強(qiáng)化數(shù)據(jù)來(lái)源合規(guī)監(jiān)管,嚴(yán)格遵循個(gè)人信息收集處理規(guī)則。第一,建立個(gè)人信息的影響評(píng)估機(jī)制。我國(guó)《個(gè)人信息保護(hù)法》第55條明確了個(gè)人信息處理者對(duì)特定個(gè)人信息處理的事先評(píng)估義務(wù),其中包括處理敏感個(gè)人信息、對(duì)個(gè)人權(quán)益有重大影響的情形。個(gè)人信息影響評(píng)估是服務(wù)提供者處理個(gè)人信息的前提,也是其持續(xù)、穩(wěn)定經(jīng)營(yíng)的基礎(chǔ)。因此,服務(wù)提供者應(yīng)當(dāng)在個(gè)人信息處理前開展影響評(píng)估,自行評(píng)估爬取的數(shù)據(jù)來(lái)源是否合規(guī),是否侵犯?jìng)€(gè)人信息權(quán)益、他人知識(shí)產(chǎn)權(quán)、公平競(jìng)爭(zhēng)權(quán)益等,根據(jù)不同影響采取相應(yīng)保護(hù)措施。第二,構(gòu)建個(gè)人信息分類分級(jí)監(jiān)管機(jī)制。《暫行辦法》第3條、第16條兩次提到“分類分級(jí)監(jiān)管”,但并未具體說(shuō)明。筆者認(rèn)為,服務(wù)提供者在收集個(gè)人信息時(shí),應(yīng)當(dāng)區(qū)分不同類型的個(gè)人信息,并確立不同的信息處理機(jī)制:(1)區(qū)分一般個(gè)人信息與敏感個(gè)人信息。對(duì)于一般個(gè)人信息的處理,僵化嚴(yán)苛的知情同意原則難以適應(yīng)維護(hù)公共利益和數(shù)字經(jīng)濟(jì)發(fā)展的需要[17],應(yīng)當(dāng)在個(gè)人信息保護(hù)與利用之間建立“弱同意”規(guī)則并采用“基于風(fēng)險(xiǎn)防范”路徑要求服務(wù)提供者事先評(píng)估個(gè)人信息處理行為的合法性、合規(guī)性和合理性。在目的限制原則上,以“風(fēng)險(xiǎn)限定”取代“目的限定”,企業(yè)對(duì)個(gè)人信息的后續(xù)利用在不超過(guò)“原有程度、用戶無(wú)法預(yù)測(cè)”的風(fēng)險(xiǎn)范圍內(nèi)無(wú)須用戶再次授權(quán),將風(fēng)險(xiǎn)控制在實(shí)現(xiàn)特定目的的合理水平。在個(gè)人信息最小化原則上,以“風(fēng)險(xiǎn)最小化”取代“目的最小化”,企業(yè)對(duì)個(gè)人信息的二次利用應(yīng)當(dāng)采取匿名化等措施將風(fēng)險(xiǎn)降至實(shí)現(xiàn)目的的最低水平[18]。但對(duì)于敏感個(gè)人信息則嚴(yán)格遵循告知同意規(guī)則,避免造成人格權(quán)益侵害。在必要情況下處理敏感個(gè)人信息的,嚴(yán)格采取匿名化等脫敏、加密技術(shù)措施,而非簡(jiǎn)單的去標(biāo)識(shí)化處理。(2)區(qū)分對(duì)個(gè)人權(quán)益有重大影響與對(duì)個(gè)人權(quán)益無(wú)重大影響。服務(wù)提供者在信息處理之前,應(yīng)當(dāng)對(duì)個(gè)人信息進(jìn)行風(fēng)險(xiǎn)評(píng)估。對(duì)個(gè)人權(quán)益有重大影響的,嚴(yán)格遵循告知同意規(guī)則取得個(gè)人單獨(dú)同意。對(duì)個(gè)人權(quán)益無(wú)重大影響的,無(wú)需取得個(gè)人單獨(dú)同意,但仍應(yīng)當(dāng)采取技術(shù)措施防止對(duì)個(gè)人權(quán)益造成侵害。第三,定期開展企業(yè)數(shù)據(jù)合規(guī)監(jiān)測(cè)。生成式人工智能服務(wù)提供者應(yīng)當(dāng)建立長(zhǎng)期的個(gè)人信息處理風(fēng)險(xiǎn)防范機(jī)制,定期對(duì)產(chǎn)品或服務(wù)中涉及個(gè)人信息處理的行為進(jìn)行合規(guī)審查,發(fā)現(xiàn)潛在風(fēng)險(xiǎn)或安全隱患的及時(shí)采取必要措施加以防范。
33提升算法的透明性和可解釋性
生成式人工智能模擬訓(xùn)練端存在的“算法黑箱”問(wèn)題,本質(zhì)在于復(fù)雜的算法既無(wú)法觀察,也難以為常人所理解。因此治理“算法黑箱”首先要打開“黑箱”,推動(dòng)算法的公開化和透明化。但需要注意的是,算法的公開化、透明化并不意味著要公開算法的具體代碼、編程等,而是要對(duì)算法作出必要說(shuō)明和解釋[19]。其原因在于,一方面,算法的源代碼異常復(fù)雜,即使公開公眾也很難理解,公開甚至?xí)l(fā)黑客攻擊、被不法分子利用實(shí)施犯罪。另一方面,算法的公開成本較大,大部分涉及公司商業(yè)秘密,企業(yè)基于自身利益一般不會(huì)自覺(jué)公開。因此,推動(dòng)生成式人工智能算法的透明化,要從算法的設(shè)計(jì)、算法功能、算法風(fēng)險(xiǎn)、算法邏輯、算法種類等涉及用戶重大利益的方面進(jìn)行公開說(shuō)明,接受算法監(jiān)管部門的審查和社會(huì)的監(jiān)督,以保障算法公平、公正、負(fù)責(zé)。其次,要加強(qiáng)算法的可解釋性。由于算法具有高度的技術(shù)性和復(fù)雜性,僅僅憑借公開難以令公眾知曉算法背后的決策,因此要加強(qiáng)算法的可解釋性,利用算法的可解釋性技術(shù)最大程度揭示算法開發(fā)的過(guò)程、結(jié)果和應(yīng)用經(jīng)過(guò),揭開算法自動(dòng)化決策內(nèi)部群體不平等的面紗[20]。比如歐盟《通用數(shù)據(jù)保護(hù)條例》第12條就規(guī)定了算法控制者負(fù)有以“簡(jiǎn)潔、透明、易懂、易獲取并清晰直白的語(yǔ)言”提供信息的義務(wù)。換言之,算法解釋必須以能夠?yàn)橐话闳怂獣缘某潭葋?lái)開展,否則算法解釋就失去了意義。當(dāng)然,對(duì)算法可解釋性適用范圍、技術(shù)要求等仍有待進(jìn)一步研究。最后,引入第三方進(jìn)行算法監(jiān)管。探索引入第三方獨(dú)立組織、支持學(xué)術(shù)性組織、非營(yíng)利機(jī)構(gòu)等專業(yè)機(jī)構(gòu)對(duì)算法進(jìn)行評(píng)估、審查、備案等,化解“算法黑箱”帶來(lái)的個(gè)人信息侵害風(fēng)險(xiǎn),實(shí)現(xiàn)算法安全、可控。目前德國(guó)已經(jīng)發(fā)展出了由技術(shù)專家和資深媒體人挑頭成立的非營(yíng)利性組織以評(píng)估和監(jiān)控影響公共生活的算法決策過(guò)程[21]。美國(guó)紐約州也頒布了《算法問(wèn)責(zé)法案》要求將公民組織代表納入監(jiān)督自動(dòng)化決策的工作組,以確保算法公開和透明[22]。我國(guó)目前針對(duì)算法的監(jiān)管尚有不足,建立第三方獨(dú)立機(jī)構(gòu)監(jiān)管有待進(jìn)一步探究。此外,對(duì)個(gè)人信息過(guò)度挖掘問(wèn)題同上述數(shù)據(jù)來(lái)源合規(guī)方面的監(jiān)管機(jī)制類似,應(yīng)當(dāng)在生成式人工智能算法設(shè)計(jì)中進(jìn)一步限制個(gè)人信息抓取的范圍、目的和方式,以法律規(guī)制手段防范技術(shù)風(fēng)險(xiǎn)。
34強(qiáng)化倫理規(guī)范和侵權(quán)責(zé)任追究
在生成式人工智能的輸出端,算法偏見(jiàn)引發(fā)輸出結(jié)果歧視,嚴(yán)重侵害個(gè)人信息權(quán)益。唯有對(duì)算法偏見(jiàn)善加治理,才能更好地利用算法造福人類。而算法偏見(jiàn)之所以會(huì)轉(zhuǎn)化為算法歧視,本質(zhì)在于人的作用,算法的開發(fā)者和使用者要為算法歧視負(fù)責(zé)[23]。因此,緩解算法偏見(jiàn)帶來(lái)的算法歧視,其根源在于優(yōu)化人工智能的倫理治理,堅(jiān)持“以人為本”和“科技為民”的理念對(duì)人工智能進(jìn)行開發(fā)設(shè)計(jì)。《暫行辦法》第4條亦對(duì)此作出了回應(yīng)。提供和使用生成式人工智能服務(wù)應(yīng)當(dāng)遵守倫理道德要求。第一,完善人工智能行業(yè)道德倫理規(guī)范,加強(qiáng)算法設(shè)計(jì)者的倫理審查和考核。通過(guò)定期開展科研倫理培訓(xùn)等對(duì)算法設(shè)計(jì)者的行為進(jìn)行約束以強(qiáng)化其道德自律,并進(jìn)一步提高算法設(shè)計(jì)者的行業(yè)準(zhǔn)入門檻。第二,構(gòu)建算法備案審查制度,強(qiáng)化事前監(jiān)督。在算法研發(fā)后投入使用之前要求其向有關(guān)監(jiān)管部門報(bào)備,經(jīng)初步審查符合要求的準(zhǔn)予進(jìn)入市場(chǎng)應(yīng)用,不符合要求的予以退回。通過(guò)監(jiān)管部門的事前監(jiān)督,可以有效防范存在嚴(yán)重偏見(jiàn)的算法投入市場(chǎng)。第三,建立算法分類分級(jí)管理和風(fēng)險(xiǎn)監(jiān)測(cè)制度,健全問(wèn)責(zé)機(jī)制。服務(wù)提供者要對(duì)算法進(jìn)行分類分級(jí)管理,規(guī)制“信息繭房”導(dǎo)致的算法歧視。從損害結(jié)果出發(fā),按照“誰(shuí)設(shè)計(jì)誰(shuí)負(fù)責(zé),誰(shuí)主管誰(shuí)負(fù)責(zé)”的標(biāo)準(zhǔn)進(jìn)行事后問(wèn)責(zé),從源頭上遏制與預(yù)防算法歧視[24]。第四,健全人工智能倫理風(fēng)險(xiǎn)評(píng)估機(jī)制,嚴(yán)格進(jìn)行倫理規(guī)范審查。對(duì)于嵌入生成式人工智能的算法模型,服務(wù)提供者要開展自查和定期評(píng)估,梳理倫理風(fēng)險(xiǎn)的來(lái)源、種類、原因等并制定相應(yīng)風(fēng)險(xiǎn)應(yīng)對(duì)方案。算法設(shè)計(jì)要秉持平等、公平的理念,防止設(shè)計(jì)人員利用算法進(jìn)行歧視。
對(duì)于生成式人工智能輸出端帶來(lái)的虛假信息治理問(wèn)題,本質(zhì)也是人的作用。行為人的非法目的誘使其利用生成式人工智能作為輔助工具制造或傳播虛假信息、實(shí)施犯罪。因此,規(guī)制生成式人工智能帶來(lái)的虛假信息問(wèn)題,應(yīng)當(dāng)從侵權(quán)責(zé)任的事先預(yù)防、事中控制和事后處理入手。第一,在事先預(yù)防上,對(duì)生成式人工智能生成作品進(jìn)行深度合成標(biāo)識(shí)。生成式人工智能服務(wù)提供者要嚴(yán)格依據(jù)《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》《暫行辦法》等規(guī)定,對(duì)深度合成內(nèi)容進(jìn)行標(biāo)識(shí)和分類分級(jí)管理,對(duì)生成內(nèi)容中可能引起公正混淆或誤認(rèn)的內(nèi)容作出風(fēng)險(xiǎn)提示,推動(dòng)生成式人工智能的透明化。使用深度合成標(biāo)識(shí)技術(shù),也可以有效追蹤虛假信息來(lái)源,提高虛假信息識(shí)別率,同時(shí)追究相關(guān)責(zé)任人的主體責(zé)任。第二,在事中控制上,建立多元主體協(xié)同共管機(jī)制??紤]政府、人工智能企業(yè)、用戶等主體在虛假信息的生成、傳播與治理中的行為模式和參與度,建立平衡各方利益的監(jiān)管機(jī)制。第三,在事后處理上,合理分配各方責(zé)任。生成式人工智能的研發(fā)者、使用者、服務(wù)提供者等主體在各自過(guò)錯(cuò)范圍內(nèi)承擔(dān)虛假信息生成、傳播的法律責(zé)任。基于鼓勵(lì)創(chuàng)新的理念,適用過(guò)錯(cuò)責(zé)任原則,同時(shí)基于生成式人工智能侵害個(gè)人信息權(quán)益的侵權(quán)主體多元性,需要根據(jù)具體情況分析各方主體責(zé)任,對(duì)服務(wù)提供者類推“通知?jiǎng)h除”規(guī)則[25]。由此,進(jìn)一步完善利用生成式人工智能侵害個(gè)人信息權(quán)益的侵權(quán)責(zé)任追究制度。
綜上,生成式人工智能下個(gè)人信息保護(hù)的治理路徑如圖3所示。
圖3生成式人工智能下個(gè)人信息保護(hù)的治理路徑
4結(jié)論
放眼全球,生成式人工智能的技術(shù)革新給世界各國(guó)帶來(lái)了巨大的發(fā)展機(jī)遇,但與此同時(shí)也引發(fā)了個(gè)人信息泄露、算法偏見(jiàn)、虛假信息傳播等諸多個(gè)人信息侵權(quán)危機(jī)。究其本質(zhì),在于如何平衡個(gè)人信息權(quán)益保護(hù)與科技創(chuàng)新發(fā)展之間的關(guān)系?!盎跈?quán)利保護(hù)”路徑過(guò)于強(qiáng)調(diào)個(gè)人信息保護(hù),僵化嚴(yán)苛的告知同意規(guī)則難以適應(yīng)人工智能時(shí)代的發(fā)展,“基于風(fēng)險(xiǎn)防范”路徑則適度擴(kuò)張個(gè)人信息合理利用的范圍并綜合考慮各責(zé)任主體的風(fēng)險(xiǎn)防范義務(wù),具有穩(wěn)定性和前瞻性。但應(yīng)對(duì)生成式人工智能對(duì)個(gè)人信息保護(hù)帶來(lái)的挑戰(zhàn),權(quán)利保護(hù)和風(fēng)險(xiǎn)防范是兩個(gè)不可或缺的維度。堅(jiān)持以人為本和鼓勵(lì)科技創(chuàng)新發(fā)展的理念,要進(jìn)一步加強(qiáng)生成式人工智能輸入端、模擬訓(xùn)練端、模擬優(yōu)化端、輸出端等各環(huán)節(jié)的風(fēng)險(xiǎn)管控,實(shí)現(xiàn)個(gè)人信息保護(hù)與利用之間的平衡。著眼于未來(lái),我們要更加關(guān)注科技發(fā)展給倫理道德、人格權(quán)保護(hù)帶來(lái)的系列沖擊,加強(qiáng)人格權(quán)保護(hù)制度研究,以實(shí)現(xiàn)保障基本人權(quán)與科技進(jìn)步之間的平衡。

文章來(lái)源:《網(wǎng)絡(luò)安全與數(shù)據(jù)治理》雜志2024年4月刊

    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶 評(píng)論公約

    類似文章 更多