近年來(lái),各種反烏托邦式英美劇大火,而人工智能頻繁成為了其中的重要話題,比如《西部世界》中描繪的“殺人”機(jī)器人,《黑鏡》中演繹的生成式AI偷取真人生活等等。
《黑鏡:我不是機(jī)器人》片段
現(xiàn)實(shí)生活中,AI已經(jīng)有了不少“黑料”,鼓勵(lì)抑郁癥用戶自殺、為用戶提供如何刺殺英國(guó)女王的建議、還有對(duì)未成年用戶提供細(xì)思恐極的建議等等,此外AI的使用也在某些情況下加深了社會(huì)上的歧視、仇恨言論和虛假信息的傳播,導(dǎo)致錯(cuò)誤逮捕、誹謗、網(wǎng)暴和謠言等各種社會(huì)性問(wèn)題加深。自從AI誕生,它對(duì)人類的賦能和其對(duì)社會(huì)危害的討論一直是并行的,正是因其雙刃性,科技圈的各種大佬對(duì)AI的態(tài)度也是大相徑庭,甚至可以說(shuō),AI成為了有史以來(lái)讓科技圈態(tài)度最為割裂的話題之一。AI保守派
在眾多對(duì)AI采取較為保守態(tài)度的科技大牛中,最讓人有些驚訝的就是被稱為“ChatGPT”之父的OpenAI CEO - Sam Altman。在去年ChatGPT推出后,Altman就開(kāi)始了對(duì)于AI監(jiān)管的大型游說(shuō),在華盛頓與兩黨領(lǐng)導(dǎo)人和副總統(tǒng)等白宮內(nèi)閣成員就AI進(jìn)行討論,呼吁政府出手對(duì)AI進(jìn)行監(jiān)管,他還在25個(gè)城市內(nèi)進(jìn)行了為期一個(gè)月的全球巡回演說(shuō),與各國(guó)領(lǐng)導(dǎo)人會(huì)面,開(kāi)誠(chéng)布公的探討AI的潛在危害以及表達(dá)對(duì)AI監(jiān)管的需求。今年5月,他還主動(dòng)參加了一次關(guān)于AI討論的國(guó)會(huì)聽(tīng)證會(huì)。Sam Altman 在國(guó)會(huì)聽(tīng)證會(huì)上與此前小扎和貝索斯等人毫不情愿出現(xiàn)在聽(tīng)證會(huì)上,還要面紅耳赤與國(guó)會(huì)成員爭(zhēng)吵辯論的畫(huà)風(fēng)不同,Sam Altman選擇主動(dòng)參加會(huì)議,在會(huì)議上Altman表示,如果AI技術(shù)產(chǎn)生危害,這些危害將非常致命,他想和政府合作防止最壞情況的發(fā)生。在具體應(yīng)用領(lǐng)域上,Altman指出,AI被用于傳播虛假信息是他最擔(dān)心的事情。他還認(rèn)為,AI有可能會(huì)帶來(lái)失業(yè),但也有機(jī)會(huì)創(chuàng)造新的工作機(jī)會(huì),政府的決策很大程度上可以決定事情向哪個(gè)方向發(fā)展。同時(shí)他還建議成立AI監(jiān)管機(jī)構(gòu),為大規(guī)模AI模型的開(kāi)發(fā)頒發(fā)許可,AI模型的安全法規(guī)和測(cè)試在向公眾發(fā)布之前必須通過(guò)許可。Altman的主動(dòng)攻勢(shì)對(duì)于引導(dǎo)政府對(duì)AI的態(tài)度極其重要。因?yàn)樗握f(shuō)的主題雖然是監(jiān)管AI,但同時(shí)更是讓立法者對(duì)人工智能產(chǎn)生興趣和進(jìn)行了解,縮小了以往華盛頓和硅谷間的信息鴻溝,避免此前科技公司與立法者間關(guān)于干預(yù)程度的沖突。他的策略也確實(shí)起了作用,立法者已經(jīng)將他視為AI監(jiān)管的導(dǎo)師和盟友,會(huì)邀請(qǐng)他對(duì)ChatGPT進(jìn)行介紹,也在立法時(shí)尋求他的建議。就在這一聽(tīng)證會(huì)后不久,Altman還與多位AI科學(xué)家共同簽署了一封信,內(nèi)容非常簡(jiǎn)短,只表達(dá)了“我們應(yīng)該將減輕AI對(duì)滅絕人類的風(fēng)險(xiǎn)作為全球的首要任務(wù)”,簽署這封信的還包括DeepMind的CEO Demis Hassabis,Anthropic的聯(lián)合創(chuàng)始人Daniela Amodei,以及被稱為“AI教父”之一的Geoffrey Hinton。Geoffrey Hinton在Google任職有十年之久。他在神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)方面的開(kāi)創(chuàng)性研究為 ChatGPT 等人工智能系統(tǒng)奠定了基礎(chǔ)。今年Hinton宣布將從Google離職,主要是為了可以更加公正自由的對(duì)公眾介紹AI帶來(lái)的危害。他曾在多個(gè)場(chǎng)合表示,AI目前的智能已經(jīng)到了令人細(xì)思恐極的地步,雖然還沒(méi)有達(dá)到人類的水平,但這一未來(lái)并不遙遠(yuǎn),同時(shí)AI將以我們無(wú)法還想象的方式改變社會(huì),而這些改變很大程度將是糟糕的,比如惡勢(shì)力使用AI發(fā)動(dòng)軍事襲擊等等,他認(rèn)為AI所帶來(lái)的威脅比氣候問(wèn)題還要嚴(yán)重,甚至表示他后悔自己在AI方面做出的努力。Geoffrey Hinton 的觀點(diǎn)同樣有著“AI教父”之稱的 Yoshua Bengio與Hinton觀點(diǎn)類似,他在與Business Insider的采訪中表示,AI樂(lè)觀派認(rèn)為AI滅絕人類并不會(huì)成為問(wèn)題,但沒(méi)人能確保這一點(diǎn),在沒(méi)有證據(jù)保證這一末日不會(huì)到來(lái)之前就宣揚(yáng)它的安全性是不負(fù)責(zé)的。選擇站在這一戰(zhàn)線的還有Elon Musk、著名認(rèn)知科學(xué)家Gary Marcus、還有Apple的聯(lián)合創(chuàng)始人Steve Wozniak等。他們?cè)诮衲?月聯(lián)合數(shù)百位科技界的知名人士共同簽署了一封公開(kāi)信,號(hào)召所有AI研究室立即停止訓(xùn)練比GPT-4更強(qiáng)大的AI模型至少半年,為了防止AI的進(jìn)展太快對(duì)社會(huì)和人類產(chǎn)生巨大風(fēng)險(xiǎn),目前聯(lián)名人數(shù)已經(jīng)超過(guò)了3萬(wàn)。AI降臨派
不過(guò),與上述大佬持反對(duì)態(tài)度的也大有人在,他們對(duì)于“AI滅絕論”沒(méi)那么緊張,反倒是更看重AI對(duì)社會(huì)發(fā)展的積極作用,其中的主要聲音之一就是與上面提到的Geoffrey Hinton和Yoshua Bengio曾一起獲得圖靈獎(jiǎng)的Yann LeCun。LeCun以其在卷積神經(jīng)網(wǎng)絡(luò)方面的工作而知名,目前是Meta的首席人工智能科學(xué)家。Yann LeCun對(duì)于AI發(fā)展的態(tài)度更偏向于大膽和樂(lè)觀,就在10月末,他加入了其他70多位學(xué)者大牛,簽署了題為“關(guān)于AI安全性和開(kāi)放性聯(lián)合聲明”的一封公開(kāi)信,信中提到,我們正處于AI發(fā)展的關(guān)鍵時(shí)刻,為了減輕AI對(duì)當(dāng)前和未來(lái)的危害,我們應(yīng)該擁抱更加開(kāi)放、透明和廣泛的AI權(quán)限,這應(yīng)當(dāng)成為全球的首要任務(wù)。信中并沒(méi)有對(duì)開(kāi)放式AI模型的潛在危險(xiǎn)避而不談,重點(diǎn)更多放在了警告AI監(jiān)管的危害上,比如過(guò)早采取錯(cuò)誤監(jiān)管會(huì)導(dǎo)致權(quán)力集中,從而損害競(jìng)爭(zhēng)和創(chuàng)新。同時(shí)還建議從開(kāi)源到開(kāi)放科學(xué)等多個(gè)方面去加速進(jìn)行AI的嘗試和研究,降低新玩家進(jìn)入AI競(jìng)賽的門(mén)檻等等。信的最后寫(xiě)到“在人工智能安全方面,開(kāi)放是解藥,而不是毒藥,” 這封公開(kāi)信目前已經(jīng)有接近400個(gè)知名人士的簽名。“關(guān)于AI安全性和開(kāi)放性聯(lián)合聲明”的一封公開(kāi)信Yann LeCun最近還在X上發(fā)表了長(zhǎng)篇小作文表達(dá)自己對(duì)AI監(jiān)管說(shuō)的不滿。不但抨擊了Altman等人對(duì)AI監(jiān)管的態(tài)度,還劍指Geoffrey Hinton和Yoshua Bengio是在為這些AI監(jiān)管游說(shuō)者提供彈藥。他說(shuō),“如果你們成功讓人們開(kāi)始畏懼AI,那么我們?cè)?jīng)都認(rèn)為的世界末日就會(huì)真正到來(lái),那就是只有少數(shù)公司能夠掌握對(duì)AI的控制權(quán)?!?nbsp;LeCun最后還將問(wèn)題的嚴(yán)重程度上升到了社會(huì)層面,他質(zhì)問(wèn)AI監(jiān)管論者是否思考過(guò)它對(duì)民主和文化多樣性會(huì)產(chǎn)生什么樣的影響,并表示這些問(wèn)題讓他徹夜難眠。與Yann LeCun站在同一戰(zhàn)線并且也簽署了上面這封聯(lián)合聲明的還有知名AI學(xué)者、Google Brain的創(chuàng)始人和斯坦福大學(xué)計(jì)算機(jī)科學(xué)系教授吳恩達(dá)(Andrew Ng) 。他不但反對(duì)社會(huì)上對(duì)AI監(jiān)管的聲音,而且直白表示科技大公司們只是為了自身利益才試圖夸大人們對(duì)AI的恐懼,因?yàn)樗麄儾⒉幌肱c開(kāi)源公司競(jìng)爭(zhēng)。吳恩達(dá)還在自己的X上發(fā)表了推文,表示目前對(duì)于AI監(jiān)管的游說(shuō)將會(huì)促成一些壓制開(kāi)源和阻礙創(chuàng)新規(guī)定的建成,而這則是他最恐懼的事情。隨后Geoffrey Hinton很快在這條推文下進(jìn)行了回復(fù),不但出了一道題,讓吳恩達(dá)計(jì)算 “如果AI不被嚴(yán)格監(jiān)管,它在未來(lái)30年內(nèi)導(dǎo)致人類滅絕的概率是多少?我的估計(jì)是 0.1,我猜Yann LeCun估計(jì)的值小于0.01,” 而且還表示,“如果大公司游說(shuō)AI監(jiān)管是為了自己利益而進(jìn)行的陰謀論,那么我從Google離職不就是最好的反證嗎?”隨后LeCun加入討論,表示他估計(jì)的概率是比其他能夠?qū)е氯祟悳缃^原因的概率小的多,并且讓Hinton計(jì)算AI拯救人類免于滅絕的概率。吳恩達(dá)也很快回復(fù),表示自己并沒(méi)有說(shuō)這是一場(chǎng)陰謀論,但舉了一些例子來(lái)表達(dá)過(guò)度夸大AI的恐懼會(huì)帶來(lái)的真正傷害,比如新的人才拒絕加入AI領(lǐng)域,因?yàn)樗麄儾幌氤蔀槿祟悳缃^的幫兇,并再次強(qiáng)調(diào)了監(jiān)管對(duì)開(kāi)源和創(chuàng)新的傷害。與Yann LeCun和吳恩達(dá)等人類似,持AI“樂(lè)觀論”的還有美國(guó)知名經(jīng)濟(jì)學(xué)家Eric Von Hippel、AI開(kāi)源模型庫(kù)軟件Hugging Face的CTO Julien Chaumond、AI Now機(jī)構(gòu)的創(chuàng)始人Meredith Whittaker、a16z的合伙人Anjney Midha,還有來(lái)自多個(gè)高校的知名AI研究者,比如哥倫比亞大學(xué)的Camille Fran?ois、UC Berkeley的Deborah Raji、以及普林斯頓的Arvind Narayanan等等。討論未休,監(jiān)管已至
在大佬們對(duì)AI的討論如火如荼進(jìn)行的同時(shí),白宮也加速了立法和監(jiān)管方面的腳步。近幾個(gè)月來(lái),拜登政府頻繁與科技公司高管和民權(quán)領(lǐng)袖會(huì)面,討論AI的發(fā)展問(wèn)題,白宮在5月宣布向國(guó)家科學(xué)基金會(huì)提供1.4億美元,專用于建立全國(guó)多個(gè)AI研究所,還陸續(xù)在7月和9月與Amazon、Google、Meta、Microsoft和OpenAI等多家科技公司達(dá)成協(xié)議,這些科技公司表示它們將增加對(duì)網(wǎng)絡(luò)安全和歧視研究的投資,以及會(huì)對(duì)用戶公開(kāi)告知AI生成內(nèi)容及其風(fēng)險(xiǎn)。10月底,白宮還發(fā)布了首個(gè)關(guān)于人工智能的行政命令,旨在為AI安全和保障制定標(biāo)準(zhǔn),在促進(jìn)創(chuàng)新和競(jìng)爭(zhēng)的同時(shí)保護(hù)公民的隱私和權(quán)利,這一規(guī)定中的主要內(nèi)容包括:- 要求研發(fā)AI模型的大公司在其系統(tǒng)對(duì)外公布前與美國(guó)政府分享其安全測(cè)試結(jié)果;
- 美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究所將為廣泛的紅隊(duì)測(cè)試制定嚴(yán)格標(biāo)準(zhǔn),國(guó)土安全部也將成立人工智能安全委員會(huì);
- 美國(guó)商務(wù)部將制定內(nèi)容認(rèn)證和水印指南,來(lái)明確標(biāo)記人工智能生成的內(nèi)容;
- 加速聯(lián)邦支持對(duì)隱私保護(hù)技術(shù)的開(kāi)發(fā),比如讓AI系統(tǒng)在被訓(xùn)練的同時(shí)更好的保護(hù)訓(xùn)練數(shù)據(jù);
- 在司法和民權(quán)等多個(gè)系統(tǒng)內(nèi)對(duì)AI算法進(jìn)行更明確的指導(dǎo),以防AI被用來(lái)加深社會(huì)歧視問(wèn)題;
- 推動(dòng)AI在醫(yī)療保健和教育領(lǐng)域的應(yīng)用,比如用于開(kāi)發(fā)藥物和創(chuàng)造教育資源;
- 通過(guò)國(guó)家AI研究資源試點(diǎn)加速全美的AI研究,為小型開(kāi)發(fā)者提供資源支持,吸引AI方面的人才留美。
與此同時(shí),由英國(guó)主辦的首屆全球人工智能安全峰會(huì)也在英國(guó)布萊切利公園舉行。這也是“AI之父”圖靈發(fā)明第一代圖靈計(jì)算機(jī)的地點(diǎn),來(lái)自中國(guó)、美國(guó)、英國(guó)在內(nèi)的28個(gè)國(guó)家及歐盟領(lǐng)導(dǎo)人參會(huì),并共同簽署了“布萊切利宣言”。宣言承諾,以安全、負(fù)責(zé)和以人為本的方式進(jìn)行AI的開(kāi)發(fā)和使用,其中提到各國(guó)應(yīng)共同關(guān)注AI安全風(fēng)險(xiǎn)并建立基于這些風(fēng)險(xiǎn)的科學(xué)認(rèn)知和理解,同時(shí)各國(guó)還應(yīng)各自制定適用于國(guó)情的基于風(fēng)險(xiǎn)的人工智能政策。對(duì)于科技初創(chuàng)公司來(lái)說(shuō),立法規(guī)定往往意味著對(duì)技術(shù)發(fā)展?jié)蚕碌囊慌枥渌?/span>但此次來(lái)自政府的行動(dòng)卻不全然如此,比如白宮規(guī)定中鼓勵(lì)對(duì)AI類人才的引進(jìn)將有望打破目前初創(chuàng)公司難以留住外國(guó)人才的現(xiàn)狀,政府對(duì)AI推動(dòng)教育的期許也代表著教育科技類公司將可能獲得風(fēng)投外來(lái)自政府的資金支持等等。任何科技的發(fā)展都是在支持和反對(duì)的聲音中前進(jìn)的,而AI正因背負(fù)著巨大的期待,在未來(lái)很長(zhǎng)一段時(shí)間內(nèi)仍會(huì)成為話題中心,甚至將繼續(xù)“割裂”硅谷的聲音,也許歷史和時(shí)間能告訴我們真相,在評(píng)論里討論下你更支持哪一派的聲音呢? 參考來(lái)源:
- OpenAI’s Sam Altman Urges A.I. Regulation in Senate Hearing (The New York Times)
- Meta’s Yann LeCun joins 70 others in calling for more openness in AI development (TechCrunch)
- Joint Statement on AI Safety and Opennes (Mozilla)
- Biden’s AI Order May Have Wide Impact For Startups (Crunchbase)
- AI's most famous leaders are in a huge fight after one said Big Tech is cynically exaggerating the risk of AI wiping out humanity (Business Insider)
本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)
點(diǎn)擊舉報(bào)。