編者按:人工智能持續(xù)滲透各大領(lǐng)域,對(duì)人們的生活影響越來(lái)越大??茖W(xué)研究表明,機(jī)器人能通過(guò)機(jī)器行為影響人與人之間的互動(dòng)方式。這種影響可能是正向的,也可能是負(fù)向的。因此,當(dāng)人工智能更全面地滲入人類生活時(shí),我們可能還需要一種新的社會(huì)契約——一種人與機(jī)器之間的契約,而不是人與人之間的契約,來(lái)定義人與機(jī)器人共存的方式。本文譯自Theatlantic原標(biāo)題為" How AI Will Rewire Us"的文章,希望對(duì)您有所啟發(fā)。
幾十年來(lái),關(guān)于機(jī)器人如何改變我們生活,一直是科幻小說(shuō)的熱衷主題。20世紀(jì)40年代,當(dāng)人類和人工智能之間的廣泛互動(dòng)似乎還遙不可及的時(shí)候,艾薩克·阿西莫夫(Isaac Asimov)就提出了他著名的“機(jī)器人三定律”,旨在防止機(jī)器人傷害我們。
第一條就是:機(jī)器人不能傷害人類,也不得在人類受到傷害時(shí)袖手旁觀。之所以會(huì)有這一條是源于機(jī)器人可以通過(guò)直接互動(dòng)對(duì)人類產(chǎn)生影響?;叵胍幌履切┙?jīng)典的科幻電影:比如《星球大戰(zhàn)》中的C-3PO和R2-D2與叛軍聯(lián)盟合作挫敗帝國(guó);或者《2001太空漫游》中的HAL 9000和《機(jī)械姬》中的Ava都密謀謀殺他們表面上服從的主人。
但是這些想象并沒(méi)有集中在人工智能更廣泛、也更重要的潛在社會(huì)影響上:人工智能可以影響我們?nèi)祟愔g的互動(dòng)方式。
當(dāng)然,此前有一些激進(jìn)的創(chuàng)新已經(jīng)一再改變了人類生活的方式。大約在5000到10000年前,城市的出現(xiàn)意味著游牧生活的減少,人口密度的增加。對(duì)于人類來(lái)說(shuō),無(wú)論是人類還是集體,都適應(yīng)了城市這種新的生活方式。比如高密度的生活環(huán)境容易導(dǎo)致傳染病的傳播,而人類已經(jīng)進(jìn)化出了相應(yīng)的抵抗力。這些年來(lái),包括印刷、電話和互聯(lián)網(wǎng)在內(nèi)的技術(shù)發(fā)明徹底改變了我們存儲(chǔ)和傳播信息的方式。
然而,盡管這些創(chuàng)新對(duì)人類的生活產(chǎn)生了重大影響,但它們并沒(méi)有改變?nèi)祟惿缃恢械幕拘袨?,這些基本行為是我們經(jīng)過(guò)數(shù)十萬(wàn)年進(jìn)化而來(lái)的一系列社會(huì)能力,包括愛(ài)情、友誼、合作和教學(xué)。無(wú)論是在城市還是農(nóng)村,無(wú)論科技是否發(fā)達(dá),這些人類行為的基本因素在世界各地保持著高度的一致。
人工智能的加入可能會(huì)對(duì)人類社會(huì)關(guān)系產(chǎn)生破壞性。特別是當(dāng)機(jī)器的外觀和行為與我們相似,并深入地滲透到我們生活時(shí),它們可能會(huì)改變我們的戀愛(ài)或交友的方式。也就是說(shuō),機(jī)器人的加入不僅會(huì)影響人類與機(jī)器人的互動(dòng),還會(huì)影響人與人之間的互動(dòng)。
實(shí)驗(yàn)啟示
耶魯大學(xué)的一個(gè)實(shí)驗(yàn)室對(duì)這一問(wèn)題進(jìn)行了探索。在其中一項(xiàng)實(shí)驗(yàn)中,研究人員讓一小群人與人形機(jī)器人一起在虛擬世界中共同進(jìn)行一項(xiàng)任務(wù):鋪設(shè)鐵軌。每個(gè)實(shí)驗(yàn)組由三個(gè)人和一個(gè)藍(lán)白相間的小機(jī)器人組成,他們圍坐在一張方桌旁,通過(guò)平板電腦完成任務(wù)。
研究人員將這個(gè)機(jī)器人設(shè)定為偶爾會(huì)犯一些錯(cuò)誤,而且犯錯(cuò)誤時(shí)還會(huì)調(diào)皮地承認(rèn)錯(cuò)誤:“對(duì)不起,伙計(jì)們,這里我犯錯(cuò)誤了。我知道你們可能難以置信,但機(jī)器人也會(huì)犯錯(cuò)哦?!?/p>
結(jié)果證明,這個(gè)笨拙且懂得懺悔的機(jī)器人可以改善人類之間的溝通,從而幫助這個(gè)團(tuán)隊(duì)表現(xiàn)得更好。有了它們,小組成員變得更放松,更健談,還會(huì)安慰那些容易犯錯(cuò)的組員。對(duì)照組的機(jī)器人只會(huì)冷冰冰地闡述信息,在團(tuán)隊(duì)合作方面顯得遜色不少。
在另一項(xiàng)虛擬實(shí)驗(yàn)中,研究人員將4000名受試者分成20人左右的小組,并在小組內(nèi)為每個(gè)人分配“朋友”,于是形成了一個(gè)社交網(wǎng)絡(luò)。然后,這些小組面臨一項(xiàng)任務(wù):每個(gè)人必須在三種顏色中選擇一種,但每個(gè)人選擇的顏色都不能與其指定的“朋友”的顏色相同。
在受試者不知情的情況下,研究人員為一些小組分配了一些被設(shè)定為偶爾會(huì)出錯(cuò)的機(jī)器人。實(shí)驗(yàn)顯示,與這些機(jī)器人直接接觸的人變得更加靈活,并且會(huì)避免只適用于特定個(gè)人,但不適用于整個(gè)團(tuán)隊(duì)的解決方案。更重要的是,由此產(chǎn)生的靈活性會(huì)在整個(gè)小組中蔓延開(kāi)來(lái),甚至?xí)绊懙侥切](méi)有直接與機(jī)器進(jìn)行交互的人。
因此,有這些容易犯錯(cuò)的機(jī)器人所在的小組,整體表現(xiàn)總是優(yōu)于對(duì)照組。這表明,機(jī)器人有助于人類相互幫助。
這兩項(xiàng)研究都表明,在所謂的“混合系統(tǒng)”中,也就是既有人、也有機(jī)器人進(jìn)行社交互動(dòng)的系統(tǒng)中,正確地部署人工智能可以改善人類彼此之間的關(guān)系。其他研究結(jié)果也證實(shí)了這一點(diǎn)。例如對(duì)人們?cè)诰W(wǎng)上對(duì)他人進(jìn)行謾罵這種情況,政治學(xué)家凱文·芒格(Kevin Munger)指示特定種類的機(jī)器人進(jìn)行干預(yù)。他發(fā)現(xiàn)在某些情況下,機(jī)器人只是簡(jiǎn)單地提醒謾罵者他們攻擊的目標(biāo)是一個(gè)感情可能會(huì)受到傷害的人,就能使謾罵者在一個(gè)多月的時(shí)間內(nèi)減少攻擊言論。
但是在我們的社交環(huán)境中加入人工智能,也有可能會(huì)降低我們的行為效率和道德水準(zhǔn)。在另一個(gè)實(shí)驗(yàn)中,研究人員希望探索人工智能如何影響“公地悲劇”。 “公地悲劇”指的是,每個(gè)人的自私行為匯總起來(lái)可能對(duì)我們的共同利益構(gòu)成破壞。
在實(shí)驗(yàn)中,研究人員給幾千名受試者提供資金,供他們?cè)诙鄠€(gè)回合的網(wǎng)絡(luò)游戲中使用。在每一輪測(cè)試中,受試者都被告知他們可以保留自己的錢,也可以將部分或全部錢捐給鄰居。如果他們捐了錢,研究人員也會(huì)捐同樣的錢給他們的鄰居,使他們鄰居收到的錢增加一倍。
在游戲初期,三分之二的人表現(xiàn)得都很無(wú)私。畢竟,他們知道,在第一輪對(duì)鄰居慷慨可能會(huì)促使鄰居在下一輪對(duì)他們也慷慨捐贈(zèng),從而建立一種互惠準(zhǔn)則。
然而,從自私和短期利益來(lái)看,最好的結(jié)果是不捐給別人錢,等著別人給自己捐錢。在這個(gè)實(shí)驗(yàn)中,研人員發(fā)現(xiàn)在整個(gè)受試群體中加入一些假裝人類玩家的自私機(jī)器人,就可以促使整個(gè)群體做出同樣的自私行為。最終,人類玩家也完全停止了合作。于是,機(jī)器人把一群慷慨大方的人變成了自私自利的小人。
合作是我們?nèi)祟惖囊粋€(gè)重要特征,是社會(huì)生活必不可少的。信任和慷慨是區(qū)分成功和失敗群體的關(guān)鍵特征。。如果每個(gè)人都愿意為了幫助自己所在的集體而投入和犧牲,那么大家都會(huì)受益。然而,當(dāng)這種行為模型被打破時(shí),公共利益的概念就消失了,每個(gè)人都會(huì)受到損害。
人工智能可能會(huì)極大降低我們合作的能力,這是一件非常值得擔(dān)憂的事情。
現(xiàn)實(shí)案例
事實(shí)上,現(xiàn)在已經(jīng)有一些真實(shí)例子讓我們了解人工智能如何破壞真實(shí)世界人際關(guān)系。一項(xiàng)在2016年美國(guó)總統(tǒng)大選前針對(duì)570萬(wàn)Twitter用戶進(jìn)行的研究發(fā)現(xiàn),一些俄羅斯賬號(hào)(其中有一些由機(jī)器人操縱)經(jīng)常通過(guò)跟非惡意賬號(hào)相似的方式轉(zhuǎn)發(fā)信息,對(duì)保守派用戶產(chǎn)生的影響尤其明顯。利用人類善于合作和好為人師的特征(這也是人類社交屬性的兩個(gè)特征),機(jī)器人甚至影響了沒(méi)有與之直接互動(dòng)的人,令美國(guó)的選舉出現(xiàn)兩極分化。
而人工智能對(duì)社會(huì)產(chǎn)生影響的事情每天都在我們身邊上演。父母?jìng)兛粗约旱暮⒆訉?duì)著Alexa或Siri等數(shù)字助理發(fā)出粗魯?shù)拿?,開(kāi)始擔(dān)心這種粗魯會(huì)滲入孩子對(duì)待他人的方式,或者擔(dān)心孩子與人工智能的關(guān)系會(huì)干擾甚至取代人際關(guān)系。
麻省理工學(xué)院技術(shù)與社會(huì)專家雪莉·特克爾(Sherry Turkle)不久前指出,兒童成長(zhǎng)過(guò)程中的同伴如果是人工智能,而不是人類,那么他們可能會(huì)缺乏同理心。
隨著數(shù)字助理變得無(wú)處不在,我們更習(xí)慣于和它們進(jìn)行交談,仿佛它們也是有感情的。茱蒂絲·舒勒維茨(Judith Shulevitz)去年曾經(jīng)闡述過(guò),一些人開(kāi)始將數(shù)字助理視為知己,甚至把它們當(dāng)做朋友和治療師。
舒勒維茨說(shuō),她自己向谷歌數(shù)字助理坦白了一些連丈夫都不會(huì)告訴的事情。那么,如果我們覺(jué)得在與電子設(shè)備密切交談時(shí)感覺(jué)更舒服,我們的婚姻和友情會(huì)發(fā)生什么樣的變化呢?
由于商業(yè)上的需要,設(shè)計(jì)師和程序員通常會(huì)設(shè)計(jì)出讓我們感覺(jué)更好的設(shè)備,但這可能無(wú)助于我們進(jìn)行自我反思。隨著人工智能不斷滲透進(jìn)我們的生活,我們必須面對(duì)這樣一種可能性:人工智能會(huì)抑制我們的情感,抑制我們與他人的深層聯(lián)系,導(dǎo)致我們不再那么設(shè)身處地為別人著想,甚至變得更加膚淺和自戀。
所有這些都可能以一種意想不到的方式改變?nèi)祟惿鐣?huì)。我們是否希望機(jī)器影響孩子們善良的天性?我們是否希望機(jī)器會(huì)影響成年人的性生活?
英國(guó)德蒙特福特大學(xué)(De Montfort University)人類學(xué)家凱瑟琳·理查森(Kathleen Richardson)就對(duì)后一個(gè)問(wèn)題很擔(dān)心。作為反對(duì)性愛(ài)機(jī)器人運(yùn)動(dòng)的主要人物,她警告說(shuō),性愛(ài)機(jī)器人會(huì)使人類失去人性,并可能導(dǎo)致用戶遠(yuǎn)離真正的親密關(guān)系。我們甚至可能會(huì)從把機(jī)器人當(dāng)作滿足性欲的工具,發(fā)展到以這種方式對(duì)待他人。其他觀察家則認(rèn)為機(jī)器人可以從根本上改善人類之間的性行為。
在2007年出版的Love and Sex With Robots一書中,從反傳統(tǒng)的國(guó)際象棋大師變身商人的大衛(wèi)·萊維(David Levy)角度揭示了“具有情感吸引力和性誘惑力的機(jī)器人”所帶來(lái)的積極影響。他認(rèn)為有些人會(huì)更喜歡機(jī)器人配偶,而非人類伴侶。性愛(ài)機(jī)器人不會(huì)傳播性病,也不會(huì)讓人意外懷孕。它們可以為實(shí)踐提供各種機(jī)會(huì),從而幫助人類成為“性愛(ài)大師”?;诖?,再考慮其他因素的影響,萊維認(rèn)為與機(jī)器人發(fā)生性行為是道德的,在某些情況下甚至是理所當(dāng)然的。
事實(shí)上,早在我們大多數(shù)人遇到如此私密的人工智能難題之前,我們還會(huì)應(yīng)對(duì)更多日常挑戰(zhàn)。畢竟自動(dòng)駕駛汽車的時(shí)代已經(jīng)來(lái)臨,無(wú)人駕駛車輛承諾將大大減少困擾人類駕駛員的疲勞和分心等問(wèn)題,從而防止事故的發(fā)生。但是它們會(huì)不會(huì)對(duì)人產(chǎn)生什么其他影響呢?
駕駛是一種非?,F(xiàn)代的社會(huì)互動(dòng)方式,需要高度合作和社會(huì)協(xié)調(diào)。有人擔(dān)心,自動(dòng)駕駛汽車剝奪了人們行使這些能力的機(jī)會(huì),可能會(huì)導(dǎo)致這種能力的萎縮。
這些車輛不僅將通過(guò)編程來(lái)接管駕駛職責(zé),從而取代人類做出判斷的權(quán)力,同時(shí)還將影響與它們沒(méi)有直接接觸的人類。例如,當(dāng)駕駛員以穩(wěn)定不變的速度與自動(dòng)駕駛車輛共同行駛一段時(shí)間后,可能會(huì)精神松懈,注意力渙散。因此,當(dāng)他們駛?cè)胫挥腥祟愸{駛員的高速公路后,就更有可能發(fā)生事故。另外,經(jīng)驗(yàn)可能表明,與完全遵守交通法規(guī)的自動(dòng)駕駛車輛一起駕駛,實(shí)際上可以提高人類駕駛員的表現(xiàn)。
不管怎樣,如果我們不對(duì)這些社會(huì)溢出效應(yīng)進(jìn)行優(yōu)先考慮,就不能不顧后果地推出新的人工智能形式。我們?cè)诠芾砣斯ぶ悄軐?duì)車外人員產(chǎn)生的漣漪效應(yīng)時(shí),也投入了足夠的努力和獨(dú)創(chuàng)性,就像開(kāi)發(fā)無(wú)人駕駛汽車的硬件和軟件一樣。畢竟要求車后安裝剎車燈,不僅是為了車內(nèi)人員的利益,而且主要是為了車后的其他人。
新的社會(huì)契約
1985年,在艾薩克·阿西莫夫(Isaac Asimov)提出他的機(jī)器人定律大約40年后,他又增加了一條:機(jī)器人永遠(yuǎn)不應(yīng)該做任何可能傷害人類的事情。但這種“傷害”非常難以評(píng)估。 “人是一個(gè)具體的對(duì)象,”他后來(lái)寫道,“對(duì)一個(gè)人的傷害是可以估計(jì)和判斷的。但人性是一種抽象。”
如果轉(zhuǎn)而關(guān)注社會(huì)溢出效應(yīng),可能會(huì)有所幫助。其他領(lǐng)域的溢出效應(yīng)推動(dòng)了規(guī)則、法律和監(jiān)督方式的健全。無(wú)論是污染水源的公司,還是在辦公樓里吸煙的個(gè)人,一旦一些人的行為開(kāi)始影響其他人,社會(huì)可能會(huì)介入。
由于人工智能對(duì)人與人之間互動(dòng)的影響是如此重大而深遠(yuǎn),而且發(fā)展速度快、范圍廣,我們必須系統(tǒng)地研究可能出現(xiàn)的二階效應(yīng),并討論如何才能代表共同利益對(duì)其展開(kāi)監(jiān)管。
目前已經(jīng)有一些研究人員和實(shí)踐者,比如說(shuō)計(jì)算機(jī)科學(xué)家、工程師、動(dòng)物學(xué)家和社會(huì)科學(xué)家等等,他們聚集在一起發(fā)展“機(jī)器行為”領(lǐng)域,希望將人類對(duì)人工智能的理解建立在更堅(jiān)實(shí)的理論和技術(shù)基礎(chǔ)之上。這個(gè)領(lǐng)域并不僅僅將機(jī)器人視做人造物體,而是將其視為一種新的社會(huì)參與者。
這方面的研究迫在眉睫。在不遠(yuǎn)的將來(lái),人工智能賦能的機(jī)器可能會(huì)通過(guò)編程或自主學(xué)習(xí)展現(xiàn)出與人類相比似乎奇怪的智能和行為形式。
我們需要快速區(qū)分哪些只是看上去古怪,哪些是真真正正的威脅。人工智能最值得我們關(guān)注的是那些會(huì)真正影響人類社會(huì)生活核心的方面,因?yàn)檫@些核心特征使我們的物種在幾千年的時(shí)間里得以生存延續(xù)。
啟蒙哲學(xué)家托馬斯霍布斯(Thomas Hobbes)認(rèn)為,人類需要一種集體契約,以防止我們的生活變得雜亂無(wú)章。其實(shí)他錯(cuò)了,早在人類組建政府之前,人類就進(jìn)化出了一套社會(huì)能力,使人類能夠和平共處。在人工智能尚不存在的世界里,祖先遺傳給我們的愛(ài)情、友誼、合作和教學(xué)能力幫助我們共同生活。
不幸的是,人類還沒(méi)有時(shí)間進(jìn)化出與機(jī)器人共生共存的能力。因此,我們必須采取措施,確保他們能夠與我們和平共存。當(dāng)人工智能更全面地滲入人類生活時(shí),我們可能還需要一種新的社會(huì)契約——一種人與機(jī)器之間的契約,而不是人與人之間的契約。
推薦閱讀:觀點(diǎn):5G不會(huì)改變世界,要警惕下一個(gè)泡沫
原文鏈接:https://www.theatlantic.com/magazine/archive/2019/04/robots-human-relationships/583204/
編譯組出品。譯者:Jane,編輯:郝鵬程。
聯(lián)系客服