人工智能倫理風險治理芻議

近年來,由人工智能技術帶來的大數據精準營銷、隱私泄露、數字鴻溝、金融欺詐、裁員失業(yè)等問題,暴露出人工智能在社會上的諸多負面影響。

作為第四次科技革命和產業(yè)變革的重要推動力量,人工智能技術正以一種迅猛發(fā)展的態(tài)勢,與經濟社會深度融合,推動社會生產力水平的整體躍升。但是,人工智能在深刻改變現代生產生活模式的同時,也不可避免地沖擊了現有的社會秩序結構,引發(fā)了一系列尖銳的倫理和法律問題,進而帶來公共治理領域的系統(tǒng)性轉變和結構性挑戰(zhàn)。人工智能引發(fā)的倫理和法律問題可統(tǒng)稱為倫理風險。對此種倫理風險,需要加以正確認識,并進行及時、有針對性的治理布局。

風險特點

相比于其他技術,人工智能最大的特點是“自主性”,即具有自主參與相關應用場景決策和行動的能力。從技術原理上看,此自主性依靠大量關聯(lián)性數據的集成處理(如深度學習等)實現。這意味著,人工智能在根本上建基于關聯(lián)性原則(Association Rules)之上,其決策和行為并非完全遵循傳統(tǒng)技術所依賴的因果關系,反而是新型的關聯(lián)關系。但問題是,關聯(lián)性原則并不具備因果律原則那樣的可解釋性、精確性和可預見性,而這三種特性又直接決定著技術本身的可適用性、可控性和安全性。因此,人工智能作為一種以自主性為核心的技術,先天具有更高的風險指數。同時,人工智能本質上是一個綜合性、交叉性的技術合成平臺,具有技術孕育的多學科參與和產業(yè)應用的多樣化等特征。其復雜性表現在從研發(fā)到應用的各個環(huán)節(jié)之中,從而導致其風險出現的可能性較傳統(tǒng)技術大為凸顯。人工智能技術自誕生之日起,就存在著較高出現多重風險的可能性。

近年來,由人工智能技術帶來的大數據精準營銷、隱私泄露、數字鴻溝、金融欺詐、裁員失業(yè)等問題,暴露出人工智能在社會上的諸多負面影響。以大數據在商業(yè)上的應用為例,一些技術公司大量抓取消費者的諸如網絡瀏覽、購物和出行等數據,并通過關聯(lián)性分析,預測其個人偏好、消費規(guī)律和購物頻率等內容,進而進行精準的產品推送。大數據精準營銷成為中國商業(yè)發(fā)展的強勁動力,在經濟領域備受追捧。但其負面問題也有很多,且較為棘手。比如,這種某些特定技術公司所操控的營銷行為,是否侵犯了消費者的知情權和隱私權?是否符合行業(yè)公平競爭原則和理念?如何避免虛假信息借此泛濫、個人隱私泄露等問題?有關部門如何對相關企業(yè)或平臺進行安全監(jiān)管,乃至必要時給出適合的責任認定與司法裁斷?等等。概言之,大數據營銷在其應用中具有評估指標多元、行政和法律監(jiān)管困難、權責認定復雜等問題,正在或將會引發(fā)諸多倫理風險。當然,這些問題也是當前人工智能應用場景中共性的風險表現,其未知性、緊迫性、全局性、復雜性和長期性等特征顯著,以常規(guī)治理模式很難消化解決。這要求我們必須明確回答:如何通過風險治理消解人工智能的負面影響?筆者認為,需要從各個層面構建中國特色的倫理風險治理新格局。

治理路徑

社會學家貝克(Ulrich Beck)在其風險社會理論中,提出了一個影響巨大的概念——“自反性”(reflexivity),即認為技術社會的最終發(fā)展形態(tài)并不單純由技術本身的力量決定,也將由在對技術進行反思的過程中所形成的反作用力塑造?;?ldquo;自反性”,我們對技術的反思和對相關風險的治理,不應僅停留于對抗技術“副作用”的層面,而更應具有前瞻性和構建性,以期形成合理的“自反性”力量,反過來引領技術發(fā)展和社會進步。在人工智能風險治理中,需要由基礎的認知反省到具體的應用調節(jié),最終走向社會制度的整體改進。這是一個有機的風險治理過程,是技術社會走向良性發(fā)展的重要路徑。根據這一路徑,可以進行三個層次的倫理風險治理布局。

一是更新認知,凝聚人工智能時代社會共識和集體信念。健康積極的社會觀念會直接影響人工智能技術的研發(fā)與應用進程。當前,人工智能技術引發(fā)的各類倫理風險,往往在短期內難以被充分解讀并有效引領。并且,一些關于人工智能以及利用人工智能傳播或放大的不良社會觀念,也可能存在滋生的土壤。這時,需要通過一些公共管理手段,對社會思想觀念進行集中有效的調控引導。一方面,要開展面向社會大眾的針對性思想宣傳工作。我們可以面向社會各類人群主動設置議題,圍繞人工智能應用的熱點領域(如媒體、電商、自動駕駛、醫(yī)療、金融等),結合社會關注的熱點話題(如安全、隱私、效率、教育、就業(yè)、家庭關系等),有針對性地加以正面宣傳教育和引導,積極解疑釋惑,努力形成良好的社會心理預期,疏導社會不良情緒,建立關于人工智能的積極集體信念。另一方面,要進行人工智能倫理思想的專業(yè)性、學術性研究創(chuàng)新。我們應鼓勵相關學術研究群體在充分理解現實問題、預判未來趨勢的基礎上,遵循科技發(fā)展規(guī)律,重新闡釋人機主體性、公平正義、權利尊嚴、美好生活等重大理論問題,為整個社會建構、更新和豐富人工智能時代倫理體系和司法體系的基礎理論和價值目標,設計適用于不同群體和應用場景的倫理規(guī)范和評判指標,提供人工智能風險治理的深層理論資源。

二是應用調節(jié),建立人工智能政策調節(jié)和緩沖機制。人工智能技術的發(fā)展日新月異,其風險產生也常常不可預計。為做好充分的風險管控,首先要保證公共治理層面的有效干預。合理有效的干預并非在人工智能的研發(fā)和應用上進行簡單統(tǒng)管統(tǒng)籌,而是要針對其未知性和復雜性等特點,拓展出開放靈活的政策空間,即通過建立有效約束和容錯糾錯的管理機制,打造人工智能應用的緩沖區(qū)。對人工智能新技術、新應用的容錯不是盲目的,而是基于容錯甚至糾錯的組織管理能力。為實現這一目標,應建立政府、公眾、媒體、企業(yè)、第三方評估機構等多元互動的生態(tài)行政管理系統(tǒng)。比如,政府可以主導建立面向科研共同體和公眾、媒體的人工智能倫理問題聽證、征詢和協(xié)商機制,提高科研共同體和公眾在人工智能研發(fā)和應用領域的監(jiān)督能力和參與程度,發(fā)掘科研共同體、公眾和媒體在推動企業(yè)和政府的治理理念轉變上的重要作用。在建立動態(tài)組織管理機制的基礎上,有關管理機構需把握好人工智能發(fā)展的節(jié)奏和方向,有選擇有計劃地調研調控,避免公共決策中的短視和失誤;以可持續(xù)發(fā)展的視角,整體及時地推進經濟結構、社會管理結構的平穩(wěn)轉型,預防人工智能對市場、就業(yè)和產業(yè)結構等領域的過度沖擊;削弱人工智能對居民生活的負面影響和可能隱患,保護弱勢群體;以公共管理政策的靈活性開放性,形成科技、市場和管理的三角聯(lián)動,保障人工智能的健康發(fā)展。

三是制度改進,明確權責構建多級制度保障。在社會層面,應建立健全統(tǒng)一有力的專門性機構,對人工智能發(fā)展進行總體規(guī)劃和全局統(tǒng)籌??梢杂扇斯ぶ悄軅惱砦瘑T會進行全局性統(tǒng)籌,逐級建立委員會體系,保證對政府部門、企事業(yè)單位、科研機構和公眾輿論的綜合全面監(jiān)管。在企業(yè)層面,應充分發(fā)揮企業(yè)在人工智能倫理風險管理上的基點作用。企業(yè)領導層應樹立風險意識,提高責任意識,在企業(yè)結構上設立專門性的倫理風險應對和監(jiān)督部門,完善企業(yè)在有關倫理問題上的決策、溝通、咨詢和調控的制度框架,提高企業(yè)在人工智能倫理風險的識別、評估、處理、監(jiān)控及匯報能力。此外,在行業(yè)內部,應建立統(tǒng)一的倫理風險咨詢和監(jiān)管委員會,制定行業(yè)發(fā)展倫理規(guī)范,推動相關企業(yè)落實主體責任,保證企業(yè)良性發(fā)展。在法律層面,應重視人工智能相關立法司法工作創(chuàng)新,以人民利益為中心,以公平正義為基石,以現實問題為導向,積極反思人工智能時代法律制度和理論體系的思想基礎和價值目標。促進能夠自我調整革新的人工智能新型法律規(guī)則體系建設,切實維護人民安全、隱私等基本權利,保障法律在人工智能應用中發(fā)揮應有的警示、裁斷和保護功能。

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論