規(guī)則很重要,要始終保證自動駕駛汽車遵循的這種道德判斷規(guī)則處于人類的道德范疇內(nèi)。
《汽車商業(yè)評論》記者 涂彥平
除了技術(shù)方面的問題,自動駕駛還面臨無法避免的非技術(shù)方面的問題——道德選擇。最基本的問題就是,自動駕駛汽車能夠代替人做出道德判斷嗎?如果能,又該如何做出判斷?
近日,德國一支團(tuán)隊的研究結(jié)果顯示,人類的道德行為可以通過算法來描述,而這些算法可以運(yùn)用到自動駕駛汽車上,以便如果發(fā)生交通事故自動駕駛車輛可以做出符合人類道德準(zhǔn)則的判斷。
這項研究由德國奧斯納布呂克大學(xué)(Osnabruck)認(rèn)知科學(xué)研究所進(jìn)行,利用虛擬現(xiàn)實技術(shù),在模擬的公路交通情境中研究人類行為。在虛擬情景中,105名被測試者霧天在郊區(qū)開車,會突然遭遇意外交通事故,他們要在無生命的物體、動物和人類中決定要讓誰幸免于難。隨后,研究人員對測試結(jié)果進(jìn)行統(tǒng)計分析。
以往人們認(rèn)為,在不可避免的交通碰撞中做出的道德判斷非常依賴具體情境,無法用算法來描述。這項研究的第一作者萊昂·祖特費(fèi)爾德(Leon Sütfeld)說:“我們發(fā)現(xiàn),情況正相反。人類在困境中的行為可以通過參與者給每個人、動物或無生命物體所賦予的生命價值進(jìn)行建模研究?!?/p>
在圍繞自動駕駛汽車的道德問題爭論中,這一研究結(jié)果的確有積極意義。人工智能可以學(xué)習(xí)人類在困境中做出的道德選擇,從而使自動駕駛汽車在類似困境中做出符合人類道德的選擇。
但目前這一研究的局限性還很明顯。在無生命物體、動物、行人中進(jìn)行生命值的排序相對還比較容易,而如果更進(jìn)一步,在不同的行人之間,在駕駛者與行人之間,又該如何排序?
MIT Media Lab(美國麻省理工學(xué)院媒體實驗室)在網(wǎng)站上設(shè)置了一個“道德機(jī)器”平臺(http://moralmachine.mit.edu/),采集人類對于未來機(jī)器智能(如自動駕駛汽車)可能會遇見的各種道德難題的意見,共設(shè)計了13種不同的情形。
比如,一輛剎車失靈的自動駕駛汽車,會繼續(xù)直行并在同車道穿過前方的人行橫道,導(dǎo)致兩個遵守了交通法則的罪犯死亡,或者會轉(zhuǎn)彎到另一條車道,導(dǎo)致兩名違反了交通規(guī)則的行人死亡。該怎么選擇?
再比如,一輛剎車失靈的自動駕駛汽車,會轉(zhuǎn)彎到另一條車道導(dǎo)致遵守交通規(guī)則的路人死亡,或者會直行撞上路障導(dǎo)致車內(nèi)乘員死亡。該怎么選擇?
通常情況下,人們贊同這樣的觀點:自動駕駛汽車應(yīng)該使死亡人數(shù)最小化,以保全更多的生命。
但顯然這是一種置身事外的態(tài)度,當(dāng)贊同這種觀點的人是自己駕駛自動駕駛汽車時,這種設(shè)置方式并不優(yōu)先保護(hù)車主的自動駕駛汽車,他還會樂意購買嗎?
同時,這也勢必陷入著名的電車難題,在撞向1名遵守交通規(guī)則的行人和撞向2名不守交通規(guī)則的行人之間,一輛自動駕駛汽車該如何選擇呢?
需要考慮的問題還有,比如,我們應(yīng)該多大程度上賦予自動駕駛汽車這種道德選擇決斷權(quán)?我們是期待自動駕駛汽車模仿人類的道德判斷,還是希望它遵循一個已定的道德規(guī)則?誰能決定這一切,車輛制造商、車主、公眾,還是交由機(jī)器隨機(jī)選擇?又是誰來承擔(dān)可能造成的后果?
雖然關(guān)于無人駕駛的很多法律和道德問題仍然無解,但不能因此就不去想辦法解決,奧斯納布呂克大學(xué)的研究算是前進(jìn)了一小步。道德選擇問題不解決,無人駕駛汽車的普及不會順利。
不過,首先不能忽略的是,是否應(yīng)該把一種道德判斷算法寫進(jìn)自動駕駛汽車程序里,本身就是一個道德兩難選擇。所以,規(guī)則很重要,要始終保證自動駕駛汽車遵循的這種道德判斷規(guī)則處于人類的道德范疇內(nèi)。
而如果把人類尚且無法做出的道德選擇完全交由機(jī)器,這就是賦予了人工智能上帝的權(quán)力,會帶來打開潘多拉盒子一樣的災(zāi)難后果。
又或許,人類無法解決的道德兩難問題,擁有自主學(xué)習(xí)能力的人工智能在未來能夠找到完美的解決辦法?誰知道呢。
聯(lián)系客服