一群類似殺人蜂的小型無人機沖入課堂,以人臉識別技術(shù)瞬間定位所有學(xué)生,將他們?nèi)繗⑺馈?/span>
這是去年 11 月伯克利大學(xué)教授 Stuart Russell 在聯(lián)合國特定常規(guī)武器公約會議上放出的一段虛擬視頻。盡管這段視頻和其中的殺人機器人并不真實,但其中的科技目前已經(jīng)存在。試想如果這種技術(shù)落入到恐怖分子手里,后果將難以設(shè)想。
機器人的發(fā)展如果趨向惡的一面,那就像是潘多拉魔盒,異常兇險。
近日,超過 50 位人工智能領(lǐng)域的專家聯(lián)名抵制韓國科學(xué)技術(shù)高級研究院 KAIST 開發(fā)“殺人機器人”。這是繼去年 8 月,業(yè)界的 116 位機器人和 AI 公司創(chuàng)始人和首席執(zhí)行官們公開敦促聯(lián)合國采取行動,阻止“機器人殺手”出現(xiàn)的后繼浪潮。
他們的訴求一致,就是為了防止 AI 可能引發(fā)槍彈和核武器發(fā)明之后在戰(zhàn)爭領(lǐng)域的第三次革命,以及避免各國加速開發(fā)自動化武器進行軍備競賽??梢哉f,這是學(xué)界和業(yè)界對殺人機器人的聯(lián)合“圍剿”。
▌殺人機器人項目
很多與政府國防相關(guān)的 AI 技術(shù)應(yīng)用,都會觸動業(yè)內(nèi)從業(yè)者敏感的神經(jīng)。
3 月,Google 利用 AI 技術(shù)幫助美國國防部分析其無人機拍攝的視頻片段,就遭到了近期 3000名員工聯(lián)名反對,這些人認為 AI 技術(shù)已經(jīng)被用成了不正當殺人利器。
人工智能在世界各地的軍隊中的使用引發(fā)了人們的擔(dān)憂,并對這種武器的準確性以及區(qū)分朋友和敵人的能力提出了質(zhì)疑。
KAIST 與國防公司韓華系統(tǒng)(Hanwha Systems)在自主武器上的合作也是如此,雖然目前的消息還未得知它們具體的一些項目細則,但如果你了解韓華系統(tǒng)的一些基本情況,也就會明白這次合作的個中利害。
作為韓國最大的武器制造商之一,韓華系統(tǒng)制造的集束彈藥(cluster munitions)在國際條約下已被禁止在 120 個國家使用;而且韓國與美國、俄羅斯和中國一樣,都不是該公約的簽署國。十年前,挪威的未來基金將韓華列入了道德黑名單中。
其次,韓國科學(xué)技術(shù)院相當于韓國的麻省理工學(xué)院,綜合它們在各自領(lǐng)域強大的影響力和技術(shù)實力,兩者結(jié)合很難不引起人們的警惕。
2 月 20 日,KAIST 開放了國防和人工智能聯(lián)合研究中心,校長 Sung-Chul Shin 當時表示“將為發(fā)展國防技術(shù)奠定堅實的基礎(chǔ)”。
根據(jù)該中心此前發(fā)布在學(xué)校網(wǎng)站上的公告,他們將專注于研究“基于 AI 的指揮決策系統(tǒng),基于 AI 的智能飛機訓(xùn)練系統(tǒng),基于 AI 智能目標跟蹤和識別技術(shù),以及為大規(guī)模水下無人交通工具結(jié)合導(dǎo)航算法”。根據(jù)這些內(nèi)容,足以判斷出這些項目與國防結(jié)合的野心。不過,可能是因為遭受了近期的輿論風(fēng)波,相關(guān)公告已從學(xué)校網(wǎng)站撤下。
聽到抵制的消息后,Sung-Chul Shin 發(fā)表聲明稱,他感到很難過,認為 KAIST 重視人權(quán)和道德標準,沒有任何意愿參與開發(fā)致命的自主武器系統(tǒng)和殺人機器人?!拔以俅沃厣?,KAIST 不會進行任何與人類發(fā)展相左的研究活動,包括無意義的由人類控制的自動化武器?!?/span>
即便如此,制造類似的軍用的“戰(zhàn)斗機器人”在韓國已不是首次了。一家名為 Dodaam Systems 的公司就生產(chǎn)了一種完全自主靜止炮塔,能夠探測 3 公里外的目標??蛻舭ò⒗?lián)合酋長國和卡塔爾,并且已經(jīng)在朝鮮高度軍事化的邊界上進行了測試。
其公司高管在 2015 年告訴 BBC ,他們擁有“自我強制限制”能力,機器是需要人類傳達攻擊指令。另外,英國 BAE 系統(tǒng)公司制造的塔拉尼斯軍用無人機也可以在技術(shù)上完全自主運行。
“發(fā)展自動化武器會使朝鮮半島的安全局勢惡化,而不是更好?!毙履贤柺看髮W(xué)的教授 Toby Walsh 表示, “無論武器是在什么地方制造,他們最終肯定會在朝鮮出現(xiàn),并會用它來對付韓國。”
▌“愚蠢的 AI”
Toby Walsh 正是此次呼吁抵制韓國殺人機器人的組織者。
在《衛(wèi)報》發(fā)出報道一天之后,今天他就署名發(fā)表了一篇名為《現(xiàn)在從殺人機器人手中拯救世界還不算太晚》的文章。
他稱自己所說的殺人機器人不是電影《終結(jié)者2:審判日》中的 T101 型機器人?!芭c之相比,我最擔(dān)心的是愚蠢的 AI?!?/span>
他認為不受人類控制,自動化武器將成為大規(guī)模殺傷性武器。但我們現(xiàn)在還來得及阻止戰(zhàn)爭領(lǐng)域的第三次革命發(fā)生。“如何做到這一點并不涉及時間旅行,或者任何火箭科學(xué)。我要說的是,用人類發(fā)明的機器去決定人類的生死這在道德上是不可接受的?!?/span>
現(xiàn)在,我們在阿富汗或伊拉克的天空之上看到的無人機,還只是半自動化武器,但從技術(shù)上來說,用計算機取代操作的士兵現(xiàn)在可以輕而易舉做到。到那時,當有人遭受自動化武器的攻擊時,我們甚至很難找出幕后真兇,這會讓作惡者更加猖狂。
完全自動化無人機技術(shù)幾乎與自動駕駛汽車使用的是相同技術(shù)。比如識別、追蹤和避開行人的算法可以很容易地變?yōu)樽R別、跟蹤和定位戰(zhàn)斗人員的算法。
那么如何防止這個世界在未來充滿殺人機器人?
Walsh 認為,與核武器不同,自動化武器將變得廉價并且是一種非常有效的武器,這聽起來似乎將難以禁止。但有一個很好的歷史先例表明禁止是可行的。
他以化學(xué)武器為例,雖然它也像自動化武器一樣便宜,背后使用的技術(shù)廣泛存在,不可能完全禁止。但現(xiàn)在我們也并沒有禁止化學(xué),而禁止的是化學(xué)武器,因為使用這些武器的人在道德上會被人類所唾棄,而這也是我們能夠防止未來會充滿殺人機器人的原因。
▌抵制聲潮
抵制殺人機器人的聲潮在擴大。
目前,已經(jīng)有 20 多個國家開始要求全面禁止制造殺人機器人。而那些參與抵制的 50 多位頂尖 AI 學(xué)者也表示,他們不會參與此類項目的研究,不會與來自 KAIST 的訪問者進行合作。
KAIST 校長的迅速回應(yīng)也表明這些學(xué)者的抵制是有效的,人類對自動化武器也是可控的。Walsh 覺得這些小的行動最終可能會實現(xiàn)徹底禁止制造自動化武器。
值得一提的是,參與抵制的除了有 Yoshua Bengio、Geoffrey Hinton 這些 AI 領(lǐng)域的知名學(xué)者之外,南京大學(xué)人工智能學(xué)院院長周志華教授也位列其中。
(參與抵制的部分學(xué)者名單)
盡管周志華教授此前并未發(fā)表與此相關(guān)的看法,但他曾在一篇《關(guān)于強人工智能》的文章中指出,現(xiàn)在絕大多數(shù) AI 研究者都認為強人工智能不能做、不該做,即便強人工智能是可能的,也不應(yīng)該去研究它。這在一定程度上也能說明他對這種殺人機器人的態(tài)度。
人們對人工智能的這種警惕感并不是近期才出現(xiàn)的,早在 2015 年 1 月,Stuart Russell 教授就發(fā)出了一封警告 AI 研究的公開信,響應(yīng)者上千人,其中包括哲學(xué)家,來自 Google、Facebook 和微軟的 AI 研究者,特斯拉 CEO 馬斯克,以及已然逝去的物理學(xué)家霍金。
此次抵制事件,也像是在下周即將在日內(nèi)瓦召開的聯(lián)合國會議上對“殺手機器人”議題討論的一次鋪墊。這或許標志著,科學(xué)界將對 AI 武器進行更強有力的控制。
自動化殺人武器的潘多拉魔盒一旦打開,很難關(guān)閉。人類需要盡快行動。
參考鏈接:
https://www.theguardian.com/technology/2018/apr/05/killer-robots-south-korea-university-boycott-artifical-intelligence-hanwha
https://www.theguardian.com/commentisfree/2018/apr/06/its-not-too-late-to-save-the-world-from-killer-robots
AI科技大本營現(xiàn)招聘AI記者和資深編譯,有意者請將簡歷投至:gulei@csdn.net,期待你的加入!
聯(lián)系客服