當今時代,人工智能日益深刻地影響著人類生活,幫助人類提高工作效率。其中,設計科學的算法、用好大數(shù)據(jù)資源、不斷提高計算能力是人工智能技術發(fā)展的重要支點。然而,技術發(fā)展總是與風險相伴,人工智能也可能帶來侵犯個人隱私、沖擊法律與社會倫理等問題。在充分發(fā)揮人工智能作用的同時有效防范其風險,需要運用法治思維和法治方式,加強對算法設計和數(shù)據(jù)運用的監(jiān)督管理,推動人工智能行業(yè)健康成長,更好為經(jīng)濟社會發(fā)展服務。
對算法設計進行監(jiān)管。人工智能是人類智慧的延伸,算法設計也不是純粹的技術問題。所有算法都是為完成特定任務、實現(xiàn)特定目的而設計的,特定任務、特定目的的實現(xiàn)路徑往往蘊含著設計者的價值觀。而設計者的價值觀又會影響其設計的技術方案,這就可能在技術運用中產(chǎn)生所謂的算法歧視。比如,某網(wǎng)絡公司推出的廣告服務中,男性用戶能夠比女性用戶看到更多高薪招聘廣告。即使算法設計者沒有給算法植入歧視的意圖,但有時仍然會出現(xiàn)某種歧視效果。因此,編制算法應當遵循一定的法律規(guī)則和行業(yè)規(guī)則,以合理控制路徑選擇,使其符合社會基本倫理規(guī)范。
對算法設計進行監(jiān)管,可以采用專業(yè)監(jiān)督和社會監(jiān)督等手段。專業(yè)監(jiān)督就是對算法設計制定具有可操作性的技術和行業(yè)規(guī)范,讓設計者在進行設計之前就受到有效制約。還可以請同行專家進行監(jiān)督。同行專家比較容易洞悉設計者的理念,能夠了解具體的操作程序。通過同行專家的評價和信息披露,可以對設計者設計出來的算法進行比較有效的事后規(guī)制。社會監(jiān)督就是要求設計者將其算法設計的基本情況進行登記或備案,并且這種登記或備案信息可供社會公眾查詢,形成社會公眾評判,從而進行道德和輿論上的制約。通過專業(yè)監(jiān)督和社會監(jiān)督,可以更好地防范人工智能算法設計偏離社會基本倫理規(guī)范。
對數(shù)據(jù)運用進行監(jiān)管。數(shù)據(jù)的獲得和利用方式是法律關注的問題。當用戶流連于網(wǎng)絡、享受人工智能設備帶來的便利時,其個人信息安全可能正面臨風險。例如,人們使用智能設備,往往要同意所謂的注冊協(xié)議、服務協(xié)議,這些協(xié)議通常會要求用戶“自愿”提供個人基本信息。企業(yè)在獲得用戶形式上的授權后,服務過程中涉及的個人數(shù)據(jù)就會按照約定通過網(wǎng)絡傳送給企業(yè)。比如,可以上傳用戶的位置、興趣、需求、使用習慣等信息。獲得這些數(shù)據(jù)的企業(yè),可以據(jù)此形成消費者分析報告,針對用戶的年齡、居住區(qū)域、消費習慣差異等,準確把握用戶偏好,進行精準的市場投放。因此,數(shù)據(jù)運用可以給企業(yè)帶來巨大利益。
由于互聯(lián)網(wǎng)海量存儲和快速傳播的特點,獲取、存儲和利用個人信息的主體和環(huán)節(jié)眾多,其中往往存在侵犯用戶隱私安全和濫用數(shù)據(jù)的風險。面對這些風險,法律應當確立相應規(guī)范,對企業(yè)使用個人信息進行限制,使得對個人信息的保護更為詳實、充分。例如,允許智能設備出于便捷服務的需要收集個人信息,但不能要求用戶作出概括性授權。企業(yè)應以正當?shù)?、法定的、特定的目的,在特定范圍內收集個人信息,并用于特定用途,而不能隨意超越用戶對其個人信息收集、使用的授權范圍。應禁止企業(yè)向用戶收集與服務無關的信息。服務提供商違反個人信息保護義務的,應當依法承擔法律責任??傊鎸θ斯ぶ悄茴I域可能出現(xiàn)的風險,我們應認真研究思考并作出法律上的應對,為新技術發(fā)展設計好法治框架,讓人工智能更好地造福人類。