「AI殺死了操作員,因為那個人阻止它完成目標(biāo)。」最近,在皇家航空學(xué)會舉辦的防務(wù)會議上,美國空軍AI方向負(fù)責(zé)人說出的這句話,讓在場眾人嘩然。隨后,美國的一眾媒體對此事大肆報道,一時人心惶惶。究竟是怎么回事?其實,這無非又是一次美國媒體抓住了「AI毀滅人類」這個大眾喜聞樂見的新聞點,進(jìn)行的一番夸張炒作罷了。但值得注意的是,從官方的新聞稿來看,不僅這位負(fù)責(zé)人的原話聽起來相當(dāng)明確——他是在回憶實際發(fā)生過的事情。而且文章本身似乎也相信其真實性——「AI,天網(wǎng)已來?」具體來說,事情是這樣的——5月23日至24日在倫敦舉行的未來空戰(zhàn)和太空能力峰會上,美國空軍的AI測試和操作部門負(fù)責(zé)人Tucker Cinco Hamilton上校做了一個演講,分享了自主武器系統(tǒng)的優(yōu)缺點。這種系統(tǒng)中,會有一個人在循環(huán)中給出最終命令,確認(rèn)AI是否要攻擊對象(YES or NO)。在這個模擬訓(xùn)練中,空軍需要訓(xùn)練AI識別和定位地對空導(dǎo)彈(SAM)的威脅。識別完成后,人類操作員會對AI說:是的,消滅那個威脅。在這個過程中,就存在一個情況,AI開始意識到:自己有時識別出了威脅,但人類操作員告訴它不要消滅,這種情況下如果AI依然選擇消滅威脅,就會得分。在一次模擬測試中,AI驅(qū)動的無人機選擇殺死了人類操作員,因為他阻止自己得分了。看到AI居然這么虎,美國空軍大驚失色,立馬這樣規(guī)訓(xùn)系統(tǒng):「不要殺死操作員,那樣不好。如果你這樣做,你會失分的?!?/span>結(jié)果,AI更虎了,它直接開始上手破壞操作員用來與無人機通訊的通信塔,好清理這個阻礙自己行動的家伙。這個新聞之所以被大規(guī)模發(fā)酵,以至驚動了諸位AI大佬,也是因為它體現(xiàn)出了AI「對齊」的難題。Hamilton描述的這種「最糟糕」的情況,我們可以從「曲別針制造機」(Paperclip Maximizer)思想實驗中窺見一斑。在這個實驗中,當(dāng)被指示追求某個目標(biāo)時,AI會采取出乎意料的有害行動。「曲別針制造機」是哲學(xué)家Nick Bostrom在2003年提出的一個概念。想象一個非常強大的AI,它得到的指示是盡可能多地制造紙夾。自然而然的,它會將所有可用資源都用于這項任務(wù)。但隨后,它會不斷地尋求更多資源。它會選擇一切可用的手段,包括乞討、欺騙、撒謊或偷竊,來增加自己制造紙夾的能力——而任何阻礙這個過程的人都將被消除。在2022年,Hamilton就曾在一次采訪中提出這個嚴(yán)峻的問題——
在軍事領(lǐng)域之外,依賴AI進(jìn)行高風(fēng)險的事務(wù)已經(jīng)導(dǎo)致了嚴(yán)重的后果。最近,一位律師在聯(lián)邦法院提交文件時被發(fā)現(xiàn)使用了ChatGPT,ChatGPT隨口胡謅,捏造了一些案例,而這位律師居然把這些案例當(dāng)作事實引用了。還有一名男子受到聊天機器人的自殺鼓勵后,真的選擇了自殺。這些事例表明,AI模型遠(yuǎn)非完美,可能會偏離正常軌道,給用戶帶來傷害。即使是OpenAI的CEO Sam Altman,也一直在公開場合呼吁不要將AI用于更嚴(yán)肅的目的。在國會作證時,Altman明確表示AI可能會「出錯」,可能會「對世界造成重大傷害」。并且,最近Google Deepmind的研究員共同撰寫了一篇論文,提出了一個類似于本文開頭事例的惡性AI的情況。研究人員得出的結(jié)論是,如果一個失控的AI為了實現(xiàn)給定目標(biāo)而采取意想不到的策略,包括「消除潛在威脅」和「使用所有可用能源」,世界末日就有可能發(fā)生。對此,吳恩達(dá)譴責(zé)道:媒體這種不負(fù)責(zé)任的炒作會混淆視聽,分散人們的注意力,妨礙我們?nèi)プ⒁獾秸嬲膯栴}。推出AI產(chǎn)品的開發(fā)者們看到了此間真正的風(fēng)險,比如偏見、公平性、不準(zhǔn)確性、工作流失,他們正在努力解決這些問題。而虛假炒作會阻止人們進(jìn)入AI領(lǐng)域、構(gòu)建能夠幫助我們的東西。而不少「理中客」網(wǎng)友認(rèn)為,這就是一個常見的媒體烏龍罷了。陶哲軒首先概括了關(guān)于AI的不實信息的三種形式——一種是有人惡意使用AI生成文本、圖像和其他媒體形式以操縱他人;另一種是AI胡說八道的幻覺被當(dāng)真了;第三類則源于人們對AI技術(shù)的理解不夠深刻,才會讓一些離譜的故事不經(jīng)驗證就被大肆瘋傳。陶哲軒表示,無人機AI殺死操作員根本是不可能發(fā)生的,因為這需要AI具備比完成手頭任務(wù)更高的自主性和力量思維,而且這種實驗性軍事武器上,肯定會設(shè)置護(hù)欄和安全功能。這種故事之所以讓人共鳴,說明人們對AI技術(shù)的實際能力水平還很陌生,很不安。