我國人工智能時(shí)代隱私保護(hù)制度之構(gòu)建
完善隱私保護(hù)的法律體系信息科技的發(fā)展不斷對隱私保護(hù)提出新的挑戰(zhàn),而法律總是最為基礎(chǔ)的應(yīng)對措施。
當(dāng)前,我國隱私保護(hù)法律體系還不夠健全,特別是對于信息隱私的保護(hù)還處于起步階段,缺少一部專門的《個(gè)人信息保護(hù)法》,難以應(yīng)對人工智能時(shí)代的隱私風(fēng)險(xiǎn)。為此,一方面,我們應(yīng)爭取在《民法典》人格權(quán)編和侵權(quán)責(zé)任編中,通過重構(gòu)侵權(quán)規(guī)則等方式來強(qiáng)化對隱私權(quán)的保護(hù)。
另一方面,在《民法典》之外,我們還應(yīng)積極制定專門的《個(gè)人信息保護(hù)法》,以重點(diǎn)回應(yīng)人工智能時(shí)代信息隱私的保護(hù)問題。而在《個(gè)人信息保護(hù)法》的制定中,我們應(yīng)當(dāng)關(guān)注以下制度的構(gòu)建。
更新通知同意機(jī)制。人工智能自動化決策的不可預(yù)測性,使得用戶難以獲取有關(guān)個(gè)人信息處理的有效信息,用戶同意的意義大打折扣,傳統(tǒng)的通知同意機(jī)制面臨質(zhì)疑。對此,通知同意機(jī)制仍然是人工智能時(shí)代隱私保護(hù)的基礎(chǔ)規(guī)則,但應(yīng)予以更新。
健全通知規(guī)則。對于涉及人工智能自動化處理的情形,數(shù)據(jù)控制者除應(yīng)向用戶披露一般的信息之外,還應(yīng)特別向用戶披露以下信息,包括自動化處理的邏輯程序信息、該處理的重要性以及其對于用戶可能造成的影響,就好比制造商必須對產(chǎn)品可能存在的危險(xiǎn)進(jìn)行警示一樣。
同時(shí),數(shù)據(jù)控制者還應(yīng)以明顯、清晰、易理解的方式通知用戶,確保通知能夠有效到達(dá)用戶。完善同意機(jī)制。無論數(shù)據(jù)控制者通過直接或間接方式處理用戶的個(gè)人信息,都應(yīng)當(dāng)取得用戶的明示同意。同時(shí),法律還應(yīng)區(qū)分不同類型的個(gè)人信息,對于個(gè)人敏感信息的處理應(yīng)當(dāng)設(shè)置更加嚴(yán)苛的同意要件。
此外,對于涉及兒童個(gè)人信息處理的情形,應(yīng)當(dāng)特別取得其監(jiān)護(hù)人的同意。豐富用戶權(quán)利。為應(yīng)對人工智能時(shí)代的隱私風(fēng)險(xiǎn),我們需要不斷豐富用戶權(quán)利,以增強(qiáng)用戶對于個(gè)人信息的控制。
數(shù)據(jù)是人工智能企業(yè)生存的關(guān)鍵。為此,法律應(yīng)當(dāng)賦予用戶數(shù)據(jù)攜帶權(quán),激勵(lì)數(shù)據(jù)控制者之間進(jìn)行競爭,以確保用戶的個(gè)人信息能夠得到高水平的保護(hù)。被遺忘權(quán)。隨著記憶與遺忘的反轉(zhuǎn),人工智能時(shí)代的人們將越發(fā)需要被遺忘權(quán)。對此,法律應(yīng)當(dāng)賦予用戶被遺忘權(quán),有權(quán)要求數(shù)據(jù)控制者刪除購物信息、搜索歷史、聊天記錄、出行信息、健康信息等人工智能收集的一切個(gè)人信息。
同時(shí),為確保刪除的徹底性,數(shù)據(jù)控制者還應(yīng)將包括云計(jì)算上的一切后臺數(shù)據(jù)一并刪除。拒絕權(quán)和解釋權(quán)。人工智能自動化決策無處不在,影響著人們學(xué)習(xí)、工作和生活的各個(gè)方面。為最大限度地減輕自動化決策對于個(gè)人帶來的負(fù)面影響,法律應(yīng)當(dāng)賦予用戶拒絕接受完全由自動化處理作出的決策的權(quán)利,同時(shí)有權(quán)要求數(shù)據(jù)控制者對自動化處理的結(jié)果進(jìn)行解釋。
設(shè)置自動化處理禁區(qū)。個(gè)人信息有敏感信息與一般信息之分,前者與人們隱私關(guān)系重大,理當(dāng)予以特別保護(hù)。