科技倫理是科技活動需要遵循的價值理念與行為規(guī)范,對于科技發(fā)展來說至關重要。7月28日,為加強人工智能倫理道德治理,推動人工智能更加規(guī)范發(fā)展,我國科技部公開征求了對《關于加強科技倫理治理的指導意見(征求意見稿)》的意見,為我國人工智能倫理法治建設打下基礎。
人工智能陷入倫理困境
近年來,人工智能發(fā)展是愈發(fā)的火熱,除了人工智能產(chǎn)業(yè)本身,由其技術所加持的如自動駕駛、人臉識別、機器人、智能音箱等也十分蓬勃。人工智能的發(fā)展為人們的生產(chǎn)生活帶來利好,但與此同時,繁榮景象背后也暗藏風險。作為雙刃劍,人工智能當前不僅給人類的生存帶來沖擊,同時也在倫理道德方面帶來挑戰(zhàn)。
日常應用中,我們便時常能夠聽聞關于人工智能的各種不好消息。例如2018年,一款名為“諾曼”的人工智能便由于其變態(tài)的“思想和認知”,給人們留下了可怕印象,該人工智能甚至一度被稱為“精神病患者”。此外2019年,英國也曾出現(xiàn)教唆人類自己刺自己心臟的AI語音助手,不寒而栗的回答讓人毛骨悚然。
由于人工智能主要基于數(shù)據(jù)學習而進化,人類的一些負面情緒、負面數(shù)據(jù)不可避免的能對人工智能產(chǎn)生影響。如果放任這些負面東西打造人工智能,出來的技術必然對人類也會產(chǎn)生極大負面影響。而這,正是人工智能倫理道德挑戰(zhàn)出現(xiàn)的一大原因。當然,除了研發(fā)者的道德會影響人工智能道德外,技術本身也是另一原因。
在自動駕駛領域,有一個十分知名的“電車難題”,講的是一個瘋子把五個無辜的人綁在電車軌道上,一輛失控的電車朝這五個人駛來,并且片刻后就要碾壓到他們。此時你可以拉一個控制桿,讓電車開到另一條軌道上,但那個軌道上也綁著一個人。這種情況下,問你是否應該拉控制桿。
顯而易見,對于現(xiàn)有的自動駕駛或者人工智能技術來說,這是一個無法給出答案的倫理難題。對于技術發(fā)展來說,倫理道德有時就像一道牢牢套在身上的枷鎖,除了找到那個關鍵性的鑰匙,基本很難逃脫。但想要“自由的舞蹈”,又不得不解開枷鎖釋放雙手,在此背景下,就需要通過法治建設來打造出那把“鑰匙”。
法治建設掙脫倫理枷鎖
目前,面對人工智能帶來的倫理道德挑戰(zhàn),各國政府已經(jīng)愈發(fā)的重視。從2017年以來,全球已有多各國家和地區(qū)陸續(xù)出臺或準備出臺系列政策,加強對于人工智能倫理道德法治建設。如2017年美國頒布了人工智能14條政策準則;2018年歐盟出臺《通用數(shù)據(jù)保護條例》;以及韓國也推出了《機器人道德憲章》……
而在我國,對于人工智能的倫理道德建設也在有條不紊開展。2017年7月,我國政府發(fā)布了《新一代人工智能發(fā)展規(guī)劃》,其中明確到2025年,要初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評估和管控能力。到2030年,建成更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系。
同時,之后工信部也發(fā)布了《人工智能創(chuàng)新發(fā)展道德倫理宣言》,規(guī)定人工智能的發(fā)展應當始終以造福人類為宗旨,不能將人工智能的自主意識等同于人類特有的自由意志,不能改變人工智能由人類創(chuàng)造的事實等。以及不少領域內企業(yè)也積極加強倫理道德關注,提升責任和意識,增強規(guī)范與治理。
當然,近日我國科技部再次公開征求對于《加強科技倫理治理的指導意見(征求意見稿)》意見,無疑更是為“健全科技倫理治理體制”、“健全科技倫理體系”正式邁出了最為堅實的一步?!兑庖姟窂幕疽蟆⒅卫碓瓌t、治理體制、治理制度、審查監(jiān)管、教育宣傳等方面對科技倫理治理進行了全面規(guī)范,為未來成熟、健康、良好發(fā)展打下基礎。
不以規(guī)矩,不成方圓。只有為人工智能的研發(fā)與應用制定完善的、合乎人類利益與道德標準的相關倫理規(guī)范與法律制度,才能確保人工智能的可持續(xù)發(fā)展,確保人類的生存權利與安全。各種負面的人工智能已經(jīng)一再證明,人類的影響對于人工智能向善還是向惡至關重要,管住人遠比管住工具更為重要。