目前的人工智能技術發(fā)展,主要是以計算機為載體推動自動化技術的發(fā)展?;跀?shù)據(jù)的人工智能的技術可以幫助我們用各種自動化裝置取代人們的各種生產(chǎn)活動,從而提升社會整體發(fā)展效率。人工智能帶來巨大的效能提升的同時,也會帶來巨大的風險。我們需要去仔細評估AI帶給我們什么樣的未來?以及人工智能的風險是如何產(chǎn)生的?如何對相關的風險進行研究和防范?
機器會取代人類嗎?
我們先來回顧在人工智能發(fā)展過程中的一系列引人注意的重大事件以及當時引發(fā)公眾討論的話題:1997年5月,IBM公司研制的計算機“深藍”首次展示了國際象棋大師卡斯帕羅夫,2016年3月,人工智能AlphsGo擊敗了韓國頂級圍棋大師李世石;2016年,全球雇員數(shù)量最多的企業(yè)富士康在江蘇昆山工廠用4萬機器人替代了6萬人類員工;2017年10月25日,世界首位機器人公民“索菲亞(Sophia)”成為擁有沙特國籍的女性機器人,成為被授予合法公民身份的公民…這一系列事件加深了人們對人工智能的擔憂和思考,隨著人工智能的技術不斷發(fā)展下,以至于人們開始將其視為同類,電影《她》中所描繪的人工智能伴侶逐步成為了現(xiàn)實,讓我們開始考慮AI發(fā)展的風險問題。我們從以下三個方面來討論:人工智能的風險范疇,人工智能風險的形成機制,以及人工智能發(fā)展的邊界問題。
首先我們討論人工智能的風險范疇,這需要從烏爾里希.貝克在20世紀90年代提出“風險社會”概念談起,他認為科技在促進社會發(fā)展的同時,也對整體的生態(tài)包括人類的生存造成了一定的威脅。“在風險社會,風險已經(jīng)代替物質(zhì)匱乏,成為社會和政治議題關注的中心”。換言之,社會的風險性成為了底層的運行邏輯之一,而技術風險則是其中影響最為深遠和廣泛的類型。與傳統(tǒng)社會不同,現(xiàn)代社會的風險是一種人類制造出來的風險,這類風險起源于人類對科學、技術不加限制的積極推進,而這樣做的后果就是目的和結果自己的不確定性。換言之,技術類風險既是技術自身的內(nèi)在屬性,也是人的行為選擇的結果,這是我們理解技術風險的基礎。
值得注意的是,人工智能所帶來的風險雖然屬于技術風險的范疇,不過也與傳統(tǒng)的技術風險有著很大的不同。一般情況下技術風險都來自于外部因素,例如環(huán)境風險、生態(tài)風險、經(jīng)濟風險和社會風險等等,即由于技術與社會因素的相互作用所帶來的風險。但是人工智能技術會帶來很大程度的內(nèi)在風險,即對于人的存在性地位的挑戰(zhàn)以及人的邊界和尺度的復雜性挑戰(zhàn)。我們看到諸多電影文學作品或者科幻小說中的創(chuàng)作都展示了人類關于AI的最大擔憂就來源于人機邊界的模糊,以及人機精湛的加劇。換言之就是基于人的價值尺度的判斷風險顯著增加,而我們目前所有關于AI的研究都在強調(diào)人的價值尺度,即人的根本利益作為評判風險的目的和原則,而不能以犧牲人的方式謀求其發(fā)展。
我們看到泰格馬克在《人類3.0》一書中提到了AI發(fā)展的三個階段:第一個階段AI對于人類進行模仿并完成人類交付的工作,這個階段機器具備初步的智能,人對于AI有著完全的控制力;第二個階段是合作階段,就是人類協(xié)助人類完成大量的工作,AI是基于利于人類活動的基本目標被設計出來的;第三個階段則是競爭甚至取代的階段,AI在大規(guī)模應用下超越了人類的控制,出現(xiàn)了依賴、競爭或者被控制等情況。換言之,人工智能的風險包含兩個部分的內(nèi)容:一個是客觀現(xiàn)實的物理層面,即人類的能力逐漸被替代,從而增大了外部的技術性風險,例如失業(yè)率的大幅度上升;一個是主觀認知層面,即人類本身心理層面的風險,例如隨著機器人逐漸具備人類的形態(tài)和認知,人類會逐漸認同機器人的同類關系,必然帶來倫理的問題。
風險背后的邏輯
然后我們來看人工智能風險形成的基本機制的邏輯,正如馬修.謝勒所說,“行為的自動化,是人工智能與人類其它早期科技最大的不同,人工智能系統(tǒng)已經(jīng)可以在不需要人類控制或者監(jiān)督的情況下運行”??梢钥吹?,人工智能技術帶給人類社會的收益和風險就是雙刃劍的兩面:一方面AI通過代替人類的勞動,使得生產(chǎn)力得到了解放,讓人類活動擁有了更多的時間和空間;另一方面,AI通過實際上取代了人們的勞動,使得人類有失去控制性的風險,人類的主體地位在某種程度上被讓渡。更深入的看,實際上人類是通過技術實現(xiàn)了身體能力的放大和提升的,現(xiàn)代技術的潛在動力就是人類對技術放大性的追求。人工智能技術就是一種整合了多種技術以后對人類技術放大意愿和動力的落實,與此同時人類也有可能逐漸在技術放大過程中失去了自我,技術朝向背離人類意愿的方向發(fā)展從而使得技術風險成為現(xiàn)實。
如果說康德“人為自然界立法”的論斷成為了人脫離自然界控制,樹立人的主體性地位的標志,那么AI的發(fā)展就正在對這樣的主體性地位帶來威脅,AI正在通過類人性特質(zhì)的成長,逐步增加自己替代人類活動的能力。換言之,技術自身具備一種不確定性,人工智能技術本來是利于人類發(fā)展的,但是在發(fā)展過程中有可能產(chǎn)生增加人類生存風險的障礙,這是我們不得不警惕的地方。
除了技術自身的特質(zhì)之外,我們很容易忽略的一點就是伴隨著技術革命成長的另外一個重要的要素——資本的力量,工業(yè)革命以來的現(xiàn)代技術發(fā)展無法脫離資本的力量。眾所周知資本是逐利的,而技術的目的是實現(xiàn)人的物質(zhì)的追求,因此技術就能夠最大化的實現(xiàn)資本的目標,技術與資本體現(xiàn)出來一定程度的同構性。換言之,資本的邏輯和技術的邏輯產(chǎn)生了共謀,資本在實現(xiàn)價值增長的過程中,能夠擴散技術的優(yōu)勢。資本作為有效的資源配置方式,能夠最大化的將資源放在最好的技術路徑中進行配置;技術作為集置(海德格爾語),能夠?qū)⑼獠渴挛锛{入自身的規(guī)范體系中,用自己的力量促逼和擺置存在者,將事物以人類自身的方式解蔽。簡單的說,技術能夠產(chǎn)生一種力量是人類不能控制的,就好像乘坐上某種座駕一樣,人在技術這個座駕的要求下不受限制的開發(fā)自然、掠奪資源,同時把人自身當作技術所需要的的資源投入進去,被技術所支配而無法脫離。這是海德格爾所討論的現(xiàn)代技術的本質(zhì),也是理解人工智能帶來風險的重要視角。于此同時,由于資本(金錢)具備一種不被局限在任何具體事務的超現(xiàn)實性,因此可以按照人們的需求去改變自然。更重要的是,由于AI技術的發(fā)展會擴大數(shù)字鴻溝的出現(xiàn),因此關注這個過程中的數(shù)字化帶來的社會公平問題也是非常重要的方面。
技術的邊界
在理解了人工智能帶來的風險之后,我們接下來討論人工智能技術發(fā)展的邊界,只有明確了邊界才能理解風險。事實上我們可以看到人工智能的風險相對于通常的技術風險來說,主要是在于智能的理解邊界有了分歧,由于人類是目前唯一具備智能的實體,因此出現(xiàn)了人工智能之后就產(chǎn)生了所謂智能邊界的問題。我們可以從三個方面理解這個概念:
第一,人工智能的“智能”是通過計算機技術將信息轉(zhuǎn)換為知識發(fā)展出來的,因此存在可計算下的邊界。目前來說,計算機更多的是著重于邏輯相關的運算,而情感是無法被計算的。當然我們也看到了馬斯克等企業(yè)家通過腦機接口等技術來實現(xiàn)人的思維的解讀,賦予了AI新的智能模式。不過考慮到我們對人的大腦的認知(尤其是與意識情感相關的部分)是非常膚淺的,我們暫時還看不到AI產(chǎn)生自我意識和概念的可能性。當然如果技術的推進使得人工智能產(chǎn)生了意識,那么毫無疑問就會產(chǎn)生系統(tǒng)性的風險,人類將不得不與其共存,相關的生存空間的矛盾也就難以避免了;
第二,人工智能技術的邊界是在挑戰(zhàn)技術的社會屬性的邊界,通常來說某種技術是具備自然屬性和社會屬性的。所謂自然屬性就是技術能夠產(chǎn)生和存在的內(nèi)在原因,即技術符合一定的物理規(guī)律;技術的社會屬性指的是技術要符合社會的規(guī)律。我們看到人工智能技術的發(fā)展正在改變社會的倫理和制度,這也是人類區(qū)別于人工智能的最重要的原因之一。我們可以看到人工智能目前還是以功能性的個體或者群體存在的,并不具備所謂的社會性質(zhì),因此它無法作為物種或者群體被看待。正如馬克思所說,“以一定的方式進行生產(chǎn)活動的一定的個人,發(fā)生一定的社會關系和政治關系”。這種社會關系反過來制約著勞動的方式,直接決定著人的本質(zhì)。換言之,人的本質(zhì)“在其現(xiàn)實性上”,是一切社會關系的總和。正如我們剛才所說,人工智能是基于計算的,而社會關系是無法通過計算獲得的。反之,如果人工智能得以從人類群體中學習到社會關系的知識,并形成所謂的集群智慧成為“超級智能”,那么人類的危機和風險就會被放大,人類社會的危機就很難避免。
第三,我們需要看到人工智能技術可能推動的“后人類”時代出現(xiàn)的風險,即通過與人類只能嫁接后產(chǎn)生的有別于人類的物種,成為“賽博格”式的物種。后現(xiàn)代主義技術哲學家唐娜.哈拉維提出“情境知識”的主張,將自然與文化定位在動態(tài)和異質(zhì)的范疇中。所謂賽博格(Cyborg)就是通過控制技術來控制有機體,實現(xiàn)人與技術的深度融合,即產(chǎn)生人與技術的共生體。通過這樣的技術范式,有可能打破機械和有機體、物理和非物理之間的邊界。“一個控制有機體,一個機器與生物的雜交提,一個射虎現(xiàn)實的創(chuàng)造物,同時也是一個虛擬的創(chuàng)造物”,這就是賽博格的內(nèi)涵。在這個你那里,賽博格打破了主體和外部環(huán)境的邊界,也打破了自然和社會的邊界,具備一種“后人類時代”的理念。在這個理念下,人不斷的客體化,而客體則不斷的人化,人與物之間的邊界不斷模糊,從而形成了一種有機體與客體之間的深度結合,是的自然的身體具備了機器的屬性。我們看到電影科幻作品中的大多數(shù)“電子人”或者“人工人”都屬于賽博格的概念下產(chǎn)生的,這使得人類可能會超越自然所賦予的人的限度。在電影《阿麗塔》中,主角所擁有的人類部分只有大腦,而其他部分則是由性能和技能更為強大的機器所構成的。如果這樣的現(xiàn)實發(fā)生就帶來了兩方面的結果:一方面來說,人類作為碳基生物的脆弱性被扭轉(zhuǎn),將具備更強的生存能力,在與機器的競爭中獲得了新的優(yōu)勢;另一方面,人類的身體喪失了自然屬性下的高貴性,變成了可取代的一種無機體的部分。這也是我們需要考慮人工智能技術邊界的原因,作為一個人文主義者并不會只追求絕對的理性,我認為人類應該追求價值而非僅僅是只是,應該追求理想的品質(zhì)而不只是現(xiàn)實的成就,要追求整體的幸福而不只是個人的勝利。這也是人性的內(nèi)涵所在。
解局之路
最后,我們?yōu)槿斯ぶ悄茱L險的提供一種解決思路,這也是我個人在研究AI時的基本出發(fā)點,即人工智能一定要體現(xiàn)人類的需求和利益,這其中不僅僅包括生存的必需,也包括發(fā)展的需求、精神的需求以及社會的需求,這是我們發(fā)展人工智能的動力,即人的價值尺度與目的性。正如錢穆大師所說,“生命演進而有人類,人類生命與其他生物的生命大不相同,其不同之最大特質(zhì),人類在求生目的之外,更還有其他目的存在。”這些目的超越了求生的目的,即超越了生死的價值和理性的光輝。我們在人工智能發(fā)展過程中看到的是人類功利性目的的最大化,即通過拘束的發(fā)展替代生產(chǎn)勞動,這將帶來整體人類社會的生存基礎的夯實,但是這其中很少包含了對理性和審美等超功利性目標的實踐,更沒有涉及關于人類自由和價值觀的內(nèi)容。如果單純考慮功利性,毫無疑問就會帶來人的個體和群體組織的異化,這也就會帶來對讓人自身的否定,挑戰(zhàn)人類的尊嚴和存在。我們需要意識到,技術的邊界就是倫理問題,技術的可能性和倫理的約束性是有內(nèi)在矛盾的,人們在技術的發(fā)展過程中很容易只看到機器的力量和作用,忽視了人類的價值。
在自動化的機器系統(tǒng)中,人處于被動的位置,技術體現(xiàn)了人類的本質(zhì)的延伸卻又在壓抑人的本質(zhì),如果人的生命成為技術改造的對象,那么人類自身的技術化就不可避免。換言之,人類就可以被制造出來,技術將“不可能”變?yōu)?ldquo;可能”的同時,也將“能夠”變成“應該”。我們要看到人的生命價值與技術之間的內(nèi)在矛盾性,即人的生命是自然的,而技術是人為的;生命是不可重復的,而技術是可以復制的。
正如康德所說,“人是目的,人的目的性與工具性要充滿統(tǒng)一”,人的價值是人存在的準則,而人類需要基于自身追求完美的道德天性去發(fā),情感與理性要完美統(tǒng)一,而這個統(tǒng)一帶來的就是人的價值的最高取向,這是我們理解未來AI發(fā)展的核心。人工智能技術的發(fā)展一定要在內(nèi)部視角以人為價值尺度,在外部視角以人的社會群體為價值尺度。以人為價值尺度,保障了人的主體地位和獨立意識;以人的社會群體為價值,保障了整個人類社會的可持續(xù)發(fā)展性。換言之,人工智能要在人本主義框架下去發(fā)展,才不會輕易僭越倫理的門檻,從而造成不可挽回的風險和損失,這是我們理解人工智能未來發(fā)展的基本原則,也是我們理解人工智能風險問題的實質(zhì)。