機器人倫理研究在國際上是一個方興未艾的研究領(lǐng)域,國內(nèi)的研究基本上處于引進和譯介階段,缺乏深入研究和進一步的突破。因此,在研究思路、研究方法以及研究進路上并無模板可循。在本章,我們從不同的研究進路出發(fā),試圖習(xí)找機器人倫理校為恰當(dāng)?shù)难芯窟M路。以期可以帶來一些有意義的成果。
如果間一個工程師,要制造一個具有倫理道德的機器人需要具備哪些倫理知識呢?對于倫理學(xué)家而言,他可能會從效果論、道義論和德行倫理學(xué)的角度去解答。對工程師而言,這一答案可能僅僅是簡單地復(fù)制倫理學(xué)相關(guān)觀點。對此我們認(rèn)為把倫理道德的觀念引入工程設(shè)計主要指的是:工程師或設(shè)計師應(yīng)該做什么或者不應(yīng)該做什么。
對于人工智能體道德主體而言,為什么將人性理論化看作是一條值得 去走的路呢?其中一個答案是理論提供了理性的解決方案,如果倫理上的原則或規(guī)則可以清晰地定義,那么遵循道義做事將會變成簡單地按規(guī)則行事。人工智能體作為道德主體所要做的就是計算和判斷-個行動是否合乎道義規(guī)則。這就需要建立一個自上而下的道義系統(tǒng)。
倫理學(xué)家并不認(rèn)為建立-個自上而下的道義系統(tǒng)是一個解決智能體決策問題的可行性方案。因為人類沒有能力對所有涉及到的方面進行考慮和計算。不過,機器能做的比人類更好是哲學(xué)家們的夢想。菜布尼茲曾在1647年設(shè)計了一個計算機器,夢想在任何情況下都能夠做出道義上最好的決策。
盡管從萊布尼茲那時起到現(xiàn)在,計算機技術(shù)已經(jīng)有了長足的進步,但我們還是認(rèn)為自上而下的理論對于這個夢想的實現(xiàn)還存在一定的障礙。接下來我們將說明:以道義規(guī)則作為決定行為的運算法則其前途是灰暗的。雖然如此,人們將自上面下的進路作為行動的參考還是具有-定合理性的,因為人工智能體作為道德主體的設(shè)計者需要獲得對于人類品性的一些描述。
在大多數(shù)情況下,以自上而下的方式了解人性就是找出一系列可以轉(zhuǎn)化成算法的規(guī)則。自上而下的道義系統(tǒng)有很多種來源,例如宗教、哲學(xué)和文學(xué)。它們中還包括黃金法則、十大律令、后果主義者或功利主義的道義、康德的絕對命令、法律和職業(yè)操守,機器人三大定律等。
在其中的一些思維方式中,規(guī)則只是所有需要明確禁止或規(guī)定的集合。這是“戒律"模式的道德,除了扎根在猶太人的傳統(tǒng)之中,也出現(xiàn)在阿西莫夫三大定悼之中。對"戒律"模式的挑戰(zhàn)足當(dāng)規(guī)則互相沖夾時該怎么做:是謂自進一步的 原則或規(guī)則用來解決這種沖突?阿西莫夫的方法是優(yōu)先規(guī)則。這樣第一-定律總 是戰(zhàn)勝了第二個,第二個定律總是戰(zhàn)勝了第三。不幸的是,對于機器人專家而言(如果為小說作家),阿西莫夫的前兩個律則都足以使自己陷入矛盾中。
為了解決沖突問題,一些哲學(xué)家試圖找到更一般的或抽象的原則,這樣更加具體或特殊的原則就可以派生出來。當(dāng)然也有一些哲學(xué)家拒絕這么做,他們認(rèn)為倫理規(guī)則應(yīng)該是為決策過程提供意見的,同時認(rèn)為自上而下的規(guī)則有助于指導(dǎo)決策并對某些批判進行專業(yè)評估。
無論道德原則被理解為規(guī)則或啟發(fā)法,還是包括與直觀思想實驗(如電車實驗)相對的主流道德哲學(xué),都可以成為倫理學(xué)家在道德上判斷對錯的一-項長期探究。自上而下的道德理論是為了抽獲道德判斷的本質(zhì),而當(dāng)自上而下的理論給出了“錯誤"的答案時(根據(jù)一些專家的直覺),它就會受到挑戰(zhàn)。但這些直覺普遍有效嗎?長期以來,很多文化評論家將-些西方或男性為中心的偏見加入到西方哲學(xué)家的直覺中,就此,新生代的“實驗哲學(xué)家”則把這種偏見當(dāng)成了一種普遍的文化現(xiàn)象。.
在此,我們的重點是探索自上而下理論的計算要求。那么這一算法是否與相關(guān)任務(wù)契合?如果是否定的,那么人工智能體倫理道德的建構(gòu)如何實現(xiàn)?人們很少從計算的角度評價白上而下的理論,但我們認(rèn)為,它有潛力釋錯哲學(xué)倫理學(xué)的本質(zhì)。
功利主義和義務(wù)論是倫理學(xué)領(lǐng)域的兩大理論。功利主義者聲稱道德最終是為了最大程度的增大世界的“效用”(utility) "(一種衡量快樂或幸福的標(biāo)準(zhǔn))。最好的行動(或最好可循的特定規(guī)街)是那些最大化增加“效用”(urility)的行動。因為功利主義者關(guān)心行動的后果,所以他們的觀點是一種后果論。另一個后果論的理論是利己主義,唧只考慮行動對個人的影響。然而,對于設(shè)計具有自主道德決策能力的智能體來說,利己主義可能無法與后果論相競爭。因為目前在人工系統(tǒng)的研究中,我們對后果論的關(guān)注可能要更多。
功利主義在“行為功利主義”(每-個單獨的行為都被評估)和“規(guī)則功利主義”(根據(jù)行為的趨勢變化來增加總的利益的一種規(guī)則)存在不同。盡管許多觀點我們可以用這兩種形式進行表述,但我們還是以行為功利主義為始展開討論。功利主義人工智能體道德主體面臨沉重的計算要求,因為衡量行為的道德指標(biāo),他們需要對很多選擇(甚至是全郁選擇)的結(jié)果進行計算。從智能體主體道德的角度看,問題是如何對行為道德的最大化進行選擇。對于設(shè)計人工系統(tǒng)的設(shè)計師來說,要解決的問題是如何構(gòu)建機制,以使得它們可以對后果做出必要的決定。從一個大的框架來看道德原則,我們認(rèn)為職責(zé)是倫理道德的核心。
在這個框架中,個人的權(quán)利-般理解為職責(zé)的另一面。職責(zé)和權(quán)利都在道義論(deontology)之下。一般來說,任何范圍內(nèi)的職責(zé)或權(quán)利都有可能遭受與另-個范圍內(nèi)的戒律相沖突的問題。例如,告訴別人真相的責(zé)任可能會與尊重另一個人的隱私的責(zé)任發(fā)生沖突。解決這些問題的一個方法是提交初步的職資到一個更高的原則,這就是康德的信仰。例如,合乎道德的行為可能是基于一個原則,一個絕對命令,可以用來保證邏輯上的一致性。
對于以義務(wù)論為倫理設(shè)計的人工主體,明確了規(guī)則(或如何確定規(guī)則)并且可以將這些規(guī)則應(yīng)用到特定的挑戰(zhàn)之中是最重要的。一個智能體主體,如果可以在特殊規(guī)則的有效性上反應(yīng)清晰明了,那么這個智能體便是適用的,但就目前而言這還是一-個夢想。秉承義務(wù)論標(biāo)準(zhǔn)的機器人設(shè)計師需要找到方法,用來確保規(guī)則在當(dāng)前的形勢要求下可以應(yīng)用于實踐。并能夠在規(guī)則相沖突的情況下擬定一個總體架構(gòu)。
功利論與道義論的方法對于特定的計算問題有一定的積極意義,同時它們對于一些常見間題也發(fā)揮了作用:即是否有計算機(或人類)能收集和比較所有為了使理論完全應(yīng)用于實際所必須的信息。對于后果論來說,這一問題尤其尖銳,因為在空間或時間上,任何行動后果的實質(zhì)都是無界的。
對于道德的討論不僅僅局限于權(quán)利(義務(wù)論)和利益(效用),也常常表現(xiàn)在事物的特性上。這可以追溯到亞里土多德和現(xiàn)在被稱為美德倫理"的理論。美德倫理學(xué)家并不關(guān)注那些僅以結(jié)果作為標(biāo)準(zhǔn)的行為,或者是在相同情況下的權(quán)利和責(zé)任。相反,美德倫理家堅持認(rèn)為道德高尚的行為是高尚品格的產(chǎn)物。而高尚品格是對特定美德的詮釋。美德倫理是否可以作為其補充,這是-一個有待深入的問題。
聯(lián)系客服