九色国产,午夜在线视频,新黄色网址,九九色综合,天天做夜夜做久久做狠狠,天天躁夜夜躁狠狠躁2021a,久久不卡一区二区三区

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
無人駕駛汽車最大的倫理困境:車禍時先救誰?

點擊上方藍字↑↑↑關(guān)注財富中文網(wǎng)


每位司機隨時可能基于對風險的判斷做出各種決定。但面對諸如救乘客還是救行人這類道德問題時,自動駕駛汽車目前還沒有快速確定的方法。




人們每天都會基于對風險的判斷做出各種決定。比如,在路上沒車的時候,急著趕公交的你可能會橫穿馬路。但如果馬路上的車很多,你就不會這么做了。在某些危急時刻,人們必須在一瞬間做出決定。比如,正開車時,有個小孩突然跑到汽車前面,而你的左右兩方又有其它危險——比如一邊是只貓,另一邊是懸崖峭壁,這時你要如何抉擇?你會冒著自己的生命危險去保護其他人的安全嗎?


不過,面對這些道德問題時,自動駕駛汽車技術(shù)卻沒有快速確定的方法,甚至可以說,毫無辦法。汽車廠商們都面臨著算法帶來的道德困境。車載電腦已經(jīng)可以幫我們泊車和自動巡航,甚至可以在面臨重大安全問題的時刻控制車輛。但這也意味著,自動駕駛技術(shù)將面臨人類有時會遭遇的艱難抉擇。


那么,應(yīng)該如何給電腦編制“道德算法”呢?


  • 計算每一種可能結(jié)果,選取傷亡數(shù)字最低的那一條路走。每個生命都要被平等對待。

  • 計算每一種可能結(jié)果,選取兒童傷亡數(shù)字最低的那一條路走。

  • 賦值計算:人命20分,貓命4分,狗命2分,馬命1分。然后計算每種規(guī)避措施造成后果的總分值,選取總分最低的那一條路走。那么,一大群狗的得分要超過兩只貓,車子就會向另一個方向規(guī)避,救下這一群狗。


可是,如果車載電腦將車里的駕駛員和乘客也計算在內(nèi)呢?要是車外的生命總分要比車里的高怎么辦?要是人們知道,在必要情況下,車子會按照既定程序犧牲他們,他們還愿意坐進車里嗎?


法國圖盧茲經(jīng)濟學院的讓·弗朗西斯·博納豐最近發(fā)表的一篇研究認為,這些問題沒有正確或錯誤的答案。在此次調(diào)查中,博納豐選取了亞馬遜公司土耳其機器人項目的數(shù)百名員工作為訪問對象。調(diào)查人員首先問道:如果為了拯救一位或更多行人,車子就得轉(zhuǎn)向并撞上障礙物,從而導致駕駛員喪生,那么是否還應(yīng)該進行這樣的規(guī)避?隨后調(diào)查人員會增減被拯救的行人數(shù)量。博納豐發(fā)現(xiàn),大多數(shù)人都在原則上同意對汽車進行編程以盡量減少傷亡人數(shù),但談到這些情景的具體細節(jié)時,他們就不那么確定了。他們支持其他人使用自動駕駛汽車,自己卻不那么熱心。人們往往都有實利主義本能,認為應(yīng)該犧牲車內(nèi)人員的生命來救助更多的車外人員——除非這些車內(nèi)人員就是他們自己。


智能機器


科幻小說家們總是愛寫關(guān)于機器人暴政的故事,比如機器人占領(lǐng)了世界(如《終結(jié)者》電影以及其它許多文藝作品),每個人說的話都會被監(jiān)聽和分析(就像奧威爾的小說《1984》里描寫的一樣)等等。這些情景暫時不可能發(fā)生,但科幻小說中的許多奇思妙想正在成為主流科技?;ヂ?lián)網(wǎng)和云計算提供的平臺已經(jīng)造就了很多技術(shù)飛躍,顯示了人工智能相對于人類的巨大優(yōu)勢。


在斯坦利·庫布里克的經(jīng)典電影《2001漫游太空》中,我們已經(jīng)可以見到一絲未來的影子。在電影中,電腦已經(jīng)可以根據(jù)任務(wù)的優(yōu)先性做出決定。飛船上的電腦HAL說道:“這個任務(wù)對我太重要了,我不能讓你危害到它?!比缃?,從手機到汽車,機器智能已經(jīng)在我們身邊的許多設(shè)備上出現(xiàn)了。據(jù)英特爾公司預(yù)測,到2020年,全球?qū)⒂?.52億輛聯(lián)網(wǎng)汽車行駛在路面上,它們每年將產(chǎn)生多達1.1億億字節(jié)的數(shù)據(jù),足以裝滿4萬多個250 GB的硬盤。那么它們有多智能呢?用英特爾公司的話說,幾乎和你一樣智能。屆時,聯(lián)網(wǎng)汽車將分享和分析一系列數(shù)據(jù),從而在行駛中隨時做出決策。在大多數(shù)情況下,無人駕駛汽車的確比有人駕駛的汽車更安全,但我們所擔心的正是那些異常情況。


科幻小說家阿西莫夫著名的“機器人三定律”,為我們提出了未來智能設(shè)備如何在危急情況下進行決策的有益建議。

  1. 機器人不能傷害人,也不能不作為而坐視人受到傷害。

  2. 機器人必須服從人類的命令,除非人類的命令違背第一原則。

  3. 在不違背第一及第二原則的情況下,機器人必須保護自己。


阿西莫夫甚至還在“三定律”之前增加了一條級別高于三定律的“第零定律”:

  • 機器人不能傷害人類社會,也不能不作為而坐視人類社會受到傷害。


阿西莫多雖然沒能幫我們解決“撞車”悖論,不過隨著傳感器技術(shù)的進一步發(fā)展,數(shù)據(jù)的來源越來越多,數(shù)據(jù)處理能力越來越強,“撞車”決策已經(jīng)被簡化為冷冰冰的數(shù)據(jù)分析。


當然,軟件愛鬧Bug是出了名的。如果有人惡意篡改這些系統(tǒng),會造成怎樣的災(zāi)難?到了機器智能真的能從人類手中接管方向盤的那一天,又會發(fā)生什么?這樣做是否正確?到時候,購車者能否購買可以編程的“道德配置”,對自己的車子進行“道德定制”?既然有的汽車上帖著“我不為任何人踩剎車”的保險杠車貼,到時候會不會有“我不為任何人踩剎車”的人工智能?如果是這樣的話,你怎么才能知道車子在危機時刻會做出怎樣的反應(yīng)——就算你知道,你又是否愿意坐上這樣一臺車呢?


此外還有法律上的問題。如果一輛車本可以采取措施減少傷亡,但它卻沒有這樣做,那會怎樣?如果它根據(jù)“道德計算”,直接從行人身上碾過去了怎么辦?這些都是人類駕駛汽車時所要擔負的責任,但機器是按指令行事的,那么應(yīng)該由誰(或者什么東西)來承擔責任?


如今智能手機、機場監(jiān)控設(shè)備甚至連面部識別技術(shù)都在不斷進步,對于計算機來說,識別物體并且根據(jù)車速和路況迅速計算出一系列可能后果,并選擇和采取相應(yīng)行動,已經(jīng)不是很困難的事了。到那個時候,置身事中的你,很可能連選擇的機會都沒有了。


作者:Bill Buchanan,愛丁堡龍比亞大學分布式計算及網(wǎng)絡(luò)與安全中心主任。

譯者:樸成奎

審校:任文科

本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
這個臭名昭著的難題,為何至今無人能解?
人工智能發(fā)展史:從無到有已超過半世紀
福利 | 你初次擁有的智能機器人,可能就是它——
生活服務(wù)
熱點新聞
分享 收藏 導長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服