蘇令銀
面對技術(shù)創(chuàng)新過程中可能帶來的風(fēng)險和挑戰(zhàn),歐美學(xué)界首先提出了“負(fù)責(zé)任創(chuàng)新”問題?!柏?fù)責(zé)任創(chuàng)新”,強(qiáng)調(diào)將更多要素納入責(zé)任系統(tǒng)之中,更多考慮人的權(quán)利,追求創(chuàng)新成果的綠色性、人文性與普惠性,通過對(科技)創(chuàng)新的管理,力求使創(chuàng)新在體現(xiàn)技術(shù)效用與經(jīng)濟(jì)效益的同時,為應(yīng)對社會挑戰(zhàn)提供“智慧性、可持續(xù)性、包容性”的解決方案。
近日,一段百度董事長李彥宏乘坐無人駕駛汽車上北京五環(huán)的視頻引發(fā)社會各界的廣泛關(guān)注和熱議。我認(rèn)為,從更深層意義上看,這里涉及人們對科技進(jìn)步的風(fēng)險擔(dān)憂和科技創(chuàng)新中的責(zé)任問題。
“機(jī)器問題”卷土重來
科技是一把雙刃劍,科技創(chuàng)新在給人類社會的發(fā)展和進(jìn)步帶來福祉的同時,也給人類經(jīng)濟(jì)社會的發(fā)展帶來了嚴(yán)峻的挑戰(zhàn)和不確定性。當(dāng)前人們對人工智能發(fā)展最大的擔(dān)憂就是,認(rèn)為人工智能短期會帶來大面積失業(yè),而長期可能會危及人類生存,甚至導(dǎo)致人類滅絕。這就是所謂的“機(jī)器問題”,也稱“機(jī)器換人問題”。
“機(jī)器問題”的產(chǎn)生是伴隨著工業(yè)革命和自動化的發(fā)展而興起的。早在兩個世紀(jì)以前工業(yè)革命時代的英國,“機(jī)器問題”就曾引發(fā)了人們的擔(dān)憂和激烈的爭論。有些人擔(dān)憂機(jī)器只是有選擇地讓少數(shù)人受益,它會搶走所有人的工作并最終徹底顛覆社會。比如,當(dāng)時的經(jīng)濟(jì)學(xué)家大衛(wèi)·李嘉圖 (David Ricardo)就十分關(guān)注機(jī)器對于不同社會階層利益的影響,特別是勞動階級認(rèn)為使用機(jī)器通常不利于他們自己的利益;托馬斯·卡萊爾(Thomas Carlyle)則認(rèn)為“機(jī)械惡魔” 的破壞性將會擾亂整個工人團(tuán)體。
如今,“機(jī)器問題”又卷土重來,只不過它偽裝成了另一副面孔??茖W(xué)家、經(jīng)濟(jì)學(xué)家和哲學(xué)家都在熱議人工智能技術(shù)帶來的深刻的潛在影響。人工智能技術(shù)突飛猛進(jìn),機(jī)器人能夠執(zhí)行曾經(jīng)只有人才能勝任的各種任務(wù)。很多人擔(dān)心機(jī)器會讓越來越多的人下崗,引發(fā)不平等問題和社會動蕩。去年6月出版的《經(jīng)濟(jì)學(xué)人》雜志在其專題報告《人工智能》(Special report: Artificial intelligence)中重點(diǎn)關(guān)注了“機(jī)器問題”。牛津大學(xué)2013年的一項(xiàng)研究表明,在未來20年里,美國47%的工作都有轉(zhuǎn)向自動化并被機(jī)器所取代的風(fēng)險,這令現(xiàn)在的許多工人感到更加擔(dān)憂。2014年,皮尤研究中心發(fā)布報告《人工智能,機(jī)器人學(xué)和工作的未來》,稱52%的參與專家認(rèn)為,到2015年由人類完成的許多工作將會被機(jī)器所取代。2015年下半年,英國央行首席經(jīng)濟(jì)學(xué)家安迪·霍爾丹 (Andy Haldane) 估計(jì),英國大約有1500萬個工作崗位(大約為總量的一半)可能受到機(jī)器的威脅,而歐洲主要國家多達(dá)50%的工作崗位估計(jì)面臨被機(jī)器替換的風(fēng)險?!段磥砗喪贰泛汀度祟惡喪贰返淖髡?、以色列著名未來學(xué)家尤瓦爾·赫拉利(Yuval Noah Harari)則預(yù)言,隨著人工智能技術(shù)的發(fā)展,必將造就更多的“無用階級”。2016年10月,AI NOW發(fā)布的專題報告The AI Now Report指出,人工智能為經(jīng)濟(jì)價值的生產(chǎn)帶來了新的方式,也對價值分配產(chǎn)生了新的影響。在某種程度上,人工智能的價值分配會使一部分群體受益,從而延續(xù)甚至加劇現(xiàn)有的財富分配差距。
更有些人擔(dān)憂人會像機(jī)器一樣思考,人工智能會威脅人類的生存。未來超級人工智能可能會不認(rèn)同人類的目標(biāo),轉(zhuǎn)而去摧毀創(chuàng)造了它們的人類。著名科學(xué)家霍金在接受英國廣播公司采訪時表示:“人工智能技術(shù)的研發(fā)將敲響人類滅絕的警鐘。這項(xiàng)技術(shù)能夠按照自己的意愿行事并且以越來越快的速度自行進(jìn)行重新設(shè)計(jì)。受限于緩慢的演化速度,人類無法與之競爭和對抗,最終將被人工智能取代。當(dāng)人工智能發(fā)展成熟時人類的末日就將來臨。”令人驚訝的是,一直致力于無人駕駛領(lǐng)域的特斯拉公司掌門人埃隆·馬斯克(Elon Musk)也警告人類:“我們正在用人工智能召喚惡魔?!碧O果公司的CEO庫克在今年MIT的畢業(yè)典禮上的一句話更是發(fā)人深省:“我所擔(dān)心的并不是人工智能能夠像人一樣思考,我更擔(dān)心的是人們像機(jī)器一樣思考,沒有價值觀,沒有同情心,沒有對結(jié)果的敬畏之心?!?div style="height:15px;">
“負(fù)責(zé)任創(chuàng)新”應(yīng)運(yùn)而生
面對技術(shù)創(chuàng)新過程中可能帶來的風(fēng)險和挑戰(zhàn),歐美學(xué)界首先提出了“負(fù)責(zé)任創(chuàng)新”問題?!柏?fù)責(zé)任創(chuàng)新”(responsible innovation),強(qiáng)調(diào)將更多要素納入責(zé)任系統(tǒng)之中,更多考慮人的權(quán)利,追求創(chuàng)新成果的綠色性、人文性與普惠性,通過對(科技)創(chuàng)新的管理,力求使創(chuàng)新在體現(xiàn)技術(shù)效用與經(jīng)濟(jì)效益的同時,為應(yīng)對社會挑戰(zhàn)提供“智慧性、可持續(xù)性、包容性”的解決方案。
首先,負(fù)責(zé)任創(chuàng)新是理論與實(shí)踐雙重邏輯必然性展開的結(jié)果。從理論維度來看,一方面,為了緩解科技與自然、科技與倫理之間的內(nèi)在張力,人們提出了可持續(xù)發(fā)展的理念以及企業(yè)社會責(zé)任、職業(yè)倫理、風(fēng)險管理、技術(shù)評估等理論,雖起到了一定的作用,但效果卻不盡如人意,理論發(fā)展面臨困境。1979年,漢斯·約納斯(Hans Jonas)提出以“責(zé)任倫理”應(yīng)對技術(shù)帶來的巨大威脅,呼吁各類群體參與到科技創(chuàng)新活動中,以防止其造成嚴(yán)重后果。另一方面,技術(shù)哲學(xué)的經(jīng)驗(yàn)轉(zhuǎn)向忽視了社會與環(huán)境的影響,而倫理轉(zhuǎn)向則面臨倫理外在化問題。因此,技術(shù)哲學(xué)的荷蘭學(xué)派倡導(dǎo)一種“內(nèi)在主義”和“價值轉(zhuǎn)向”進(jìn)路,即技術(shù)與倫理并行研究,強(qiáng)調(diào)直接介入技術(shù)實(shí)踐以應(yīng)對社會問題從而增強(qiáng)技術(shù)創(chuàng)新的建設(shè)性,而負(fù)責(zé)任創(chuàng)新就是這一進(jìn)路的主要代表。從實(shí)踐維度來看,一方面,過往的技術(shù)濫用帶來的惡果和災(zāi)難迫使人們對科技創(chuàng)新加以規(guī)制。隨著公眾的覺醒,多元利益相關(guān)者的協(xié)同成為創(chuàng)新的必然,科技創(chuàng)新必須充分考慮其利益訴求。另一方面,科技創(chuàng)新是人類社會進(jìn)步的源泉,但其作為“創(chuàng)造性破壞”存在不可避免的負(fù)效應(yīng),因此,應(yīng)當(dāng)對科技創(chuàng)新的社會、倫理維度進(jìn)行更多考量。當(dāng)前世界各國都在大力推進(jìn)科技創(chuàng)新,比如我國的創(chuàng)新驅(qū)動戰(zhàn)略、美國的“能源新政”、歐盟的“地平線2020計(jì)劃”等,這更要關(guān)注科技創(chuàng)新的環(huán)境、倫理、社會風(fēng)險,確??萍紕?chuàng)新無害化、人性化,實(shí)現(xiàn)科技創(chuàng)新成果同國家需要、人民要求、市場需求相結(jié)合。
其次,負(fù)責(zé)任創(chuàng)新的提出,也是轉(zhuǎn)變科學(xué)家的傳統(tǒng)觀念之需。在當(dāng)前科技創(chuàng)新過程中,某些自然科學(xué)家仍然主張科學(xué)技術(shù)“價值中立論”,有的公然宣稱科學(xué)家必須“為了科技上1%的進(jìn)步而不斷努力,甚至可以不擇手段”,也有的頑固堅(jiān)持“科技創(chuàng)新僅僅是為了滿足科學(xué)家的好奇心”的觀念。實(shí)際上,高技術(shù)必然意味著強(qiáng)責(zé)任,相比于一般社會公眾,由于科學(xué)家掌握著科技創(chuàng)新發(fā)展的主導(dǎo)性和權(quán)威性,從而他們對科技創(chuàng)新可能產(chǎn)生的風(fēng)險更有發(fā)言權(quán),也必將為其風(fēng)險性承擔(dān)更大的社會責(zé)任。
正是在此背景下,大批關(guān)注科技創(chuàng)新的風(fēng)險以及公眾參與的項(xiàng)目開始實(shí)施,相關(guān)研究也出現(xiàn)了爆炸式增長,旨在通過對科技創(chuàng)新過程中多元價值的關(guān)照,探求一種具有可持續(xù)性的經(jīng)濟(jì)社會發(fā)展進(jìn)路。
這里需要強(qiáng)調(diào)的是,負(fù)責(zé)任創(chuàng)新并非消極壓制科技創(chuàng)新,而是時刻警醒我們?nèi)绾卧趩栴}叢生的世界中“合宜地”發(fā)揮科技創(chuàng)新的價值。人類的生存本質(zhì)上是一種技術(shù)化生存,科技對人類的生活方式與生存境遇具有重要的型塑作用,在當(dāng)今科技高度發(fā)達(dá)的時代尤其如此。而人的目的對規(guī)制技術(shù)至關(guān)重要,因此人類需要通過對目的的規(guī)約來融洽人機(jī)關(guān)系。負(fù)責(zé)任創(chuàng)新的價值在于把倫理、社會等多元因素納入科技創(chuàng)新中,力求破解科技造成的負(fù)面效應(yīng),同時降低高技術(shù)可能帶來的風(fēng)險,實(shí)現(xiàn)人類對科技及其影響的規(guī)制,增強(qiáng)對科技創(chuàng)新風(fēng)險的防范意識,從而實(shí)現(xiàn)對人類生存境遇的最優(yōu)化。這正是負(fù)責(zé)任創(chuàng)新所追求的目的,也是其終極意義所在。
如何避免 “弗蘭肯斯坦回形針”隱憂?
機(jī)器能夠脫離人類控制而自己獨(dú)立運(yùn)行并不是一個新鮮想法,英國作家瑪麗·雪萊(Mary Shelley)在 1818 年就在她的小說《弗蘭肯斯坦》中提
出過這個想法。但最近人們在人工智能方面取得的進(jìn)展又引起了新的擔(dān)憂,牛津大學(xué)哲學(xué)家尼克·博斯特羅姆(Nick Bostrom)就提出了“回形針最多化”(paperclip maximiser)的思想實(shí)驗(yàn)。這個實(shí)驗(yàn)假設(shè)人工智能希望能收集盡可能多的回形針。它會想盡一切辦法來收集回形針,并且通過自我升級來找到收集回形針的新方法,而且還會反抗一切阻止它這樣做的企圖。最后它“把整個宇宙空間都變成了一個回形針制造工廠”。正如博斯特羅姆所說的:“人工智能不需要人類一樣的行為和心理動機(jī)。它們可能不會出現(xiàn)人類常會犯的錯誤,但是會犯別的錯誤,例如執(zhí)著于收集回形針。它們的目標(biāo)一開始可能看起來是無害的,但如果它們能夠自主升級自己的性能就會非常危險。即使是運(yùn)行在一臺不聯(lián)網(wǎng)的計(jì)算機(jī)上的被束縛的超級人工智能也會竭盡全力地勸說它的主人讓它獲得自由。因此,超級人工智能不僅僅是一種新技術(shù),而是對人類的威脅?!奔夹g(shù)專家盡管不相信人工智能會失去控制,但普遍還是會有社會倫理上的憂慮。要避免“弗蘭肯斯坦回形針”隱憂,必須盡快建構(gòu)起相應(yīng)的倫理框架和法律規(guī)制。
一是合倫理的人工智能設(shè)計(jì),并在人工智能研發(fā)中貫徹倫理原則,即將人類社會的法律、道德等規(guī)范和價值嵌入人工智能系統(tǒng)。這主要是電氣和電子工程師協(xié)會(IEEE)、美國、英國等在大力提倡。
早在上世紀(jì)40年代,科幻小說家阿西莫夫就提出了著名的機(jī)器人三定律:(1)機(jī)器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管;(2)機(jī)器人必須服從人給予它的命令,當(dāng)該命令與第一定律沖突時例外;(3)機(jī)器人在不違反第一、第二定律情況下要盡可能保護(hù)自己的生存。也有學(xué)者提出兼容人類的人工智能三原則:(1)利他主義,即機(jī)器人的唯一目標(biāo)是最大化人類價值的實(shí)現(xiàn);(2)不確定性,即機(jī)器人一開始不確定人類價值是什么;(3)考量人類,即人類行為提供了關(guān)于人類價值的信息,從而幫助機(jī)器人確定什么是人類所期望的價值。
2017年1月在美國加州召開的“阿西洛馬會議”,近千名人工智能和機(jī)器人領(lǐng)域的專家們聯(lián)合簽署了稱為“阿西洛馬人工智能原則”,呼吁全世界的人工智能工作遵守這些原則,共同保障人類未來的利益和安全?!鞍⑽髀羼R人工智能原則”的核心是“為了人類的人工智能”。在“阿西洛馬人工智能原則”23條中, 其中具有綱領(lǐng)性的條目有:第1條“研究目的”確立了人工智能研究的目的是創(chuàng)造服務(wù)于人、并為之所控的人工智能和機(jī)器人原則,這個原則是人機(jī)之間的基本倫理保證,而這個保證最先由研究和開發(fā)人員的倫理意識體現(xiàn)在研發(fā)中并遵守;所以第16條“人類規(guī)制”表達(dá)了一種熱切的期望。第2條“研究經(jīng)費(fèi)”中對人類資源、意志、價值體系的基礎(chǔ)地位的堅(jiān)守。第10條“價值歸屬”、第11條“人類價值觀”,進(jìn)一步提升為機(jī)器對人的價值歸屬是高級人工智能的設(shè)計(jì)準(zhǔn)則;第9條“責(zé)任”則將人機(jī)倫理關(guān)系作為責(zé)任明確地加在研究人員身上;第12條“個人隱私”和第13條“自由和隱私”體現(xiàn)了人的尊嚴(yán)。第6條“安全性”是為研究工作設(shè)定機(jī)器對人的保障條件。第7條“故障透明性”、第8條“司法透明性”,是對人工智能現(xiàn)有研究、開發(fā)的法律規(guī)制方面的倫理要求。第14條“分享利益”、第15條“共同繁榮”、第17條“非顛覆”、第18條“人工智能軍備競賽”,則是人類社會的倫理原則在人工智能研究領(lǐng)域的具體體現(xiàn)。上述原則都是基于人的目的而理解的人-機(jī)關(guān)系,“阿西洛馬人工智能原則”第23條“共公利益”甚至包括了“超級智能”,但這仍是作為全人類整體利益的考慮。為了人類的人工智能,這種把尊重人的道德地位放在人工智能領(lǐng)域不同層次上多次被強(qiáng)調(diào),都是基于人的道德和人類尊嚴(yán)的樸素性。
人工智能的發(fā)展對人類自身的地位和價值產(chǎn)生了影響,對此擔(dān)憂由來已久。其中由一些著名的人工智能問題專家以志愿者身份創(chuàng)立的“未來生命研究所”,于2015年1月發(fā)表了一封公開信《為穩(wěn)健性和利益性的人工智能而進(jìn)行研究》提出,人工智能必須只做我們要它們做的,即“有益的人工智能”口號。同樣,此前也已經(jīng)引起了業(yè)內(nèi)外的廣泛注意和嚴(yán)肅討論并有所行動,如: IEEE 關(guān)于人工智能及自主系統(tǒng)的倫理考慮的全球倡議,人工智能未來總統(tǒng)委員會,人工智能百年研究計(jì)劃,人工智能倫理與治理基金會,艾倫人工智能研究所,等等。
二是必須對人工智能應(yīng)用進(jìn)行必要的監(jiān)管,避免作惡,同時針對人工智能可能帶來的風(fēng)險及造成的人身財產(chǎn)損害,提供必要的法律救濟(jì)?,F(xiàn)在的人工智能越來越復(fù)雜,決策的影響越來越大,未來可能需要對其進(jìn)行監(jiān)管。責(zé)任、透明性、可審核性,并使無辜受害者不至于無助地沮喪和恐懼??赡艿谋O(jiān)管措施包括標(biāo)準(zhǔn)制定,涉及分類標(biāo)準(zhǔn)、設(shè)計(jì)標(biāo)準(zhǔn)、責(zé)任分擔(dān)等等;透明性方面,包括人工智能技術(shù)代碼和智能決策的透明性,如果用自動化的手段進(jìn)行決策,則需要告知用戶,保障用戶知情權(quán),并在必要時向用戶提供解釋,國外已經(jīng)有Open AI等一些人工智能開源運(yùn)動。此外,還需要確立審批制度,比如對于無人駕駛汽車、智能機(jī)器人等試驗(yàn)和應(yīng)用,未來需要監(jiān)管部門進(jìn)行預(yù)先審批,未經(jīng)審批向市場推出必須審慎。對于人工智能造成的人身財產(chǎn)損害,無辜的受害者應(yīng)該得到及時合理的救助;對于無人駕駛汽車、智能機(jī)器人等帶來的挑戰(zhàn),厘清責(zé)任分擔(dān)、差別化責(zé)任、強(qiáng)制保險、確立智能機(jī)器人法律人格等都是可以考慮的法律救濟(jì)措施。
在今天這個人工智能快速發(fā)展,人類在諸如圍棋、圖像識別、語音識別等等領(lǐng)域開始落后于人工智能的時代,對人工智能進(jìn)行倫理研究日益重要,包括道德代碼、隱私、正義、有益性、安全、責(zé)任等等。遺憾的是,現(xiàn)在的人工智能界更多是工程師在參與,缺乏哲學(xué)、倫理學(xué)、法學(xué)等其他社會學(xué)科的參與。未來人工智能倫理需要加強(qiáng)跨學(xué)科的研究,我們的研究必須直面這些倫理道德挑戰(zhàn),畢竟它關(guān)乎著我們?nèi)祟惖奈磥怼?