* “中美友好互信合作計(jì)劃”是由復(fù)旦發(fā)展研究院和豐實(shí)集團(tuán)共同打造的中美關(guān)系研究的學(xué)術(shù)平臺
導(dǎo)言:此前馬斯克曾發(fā)布反對人工智能通用大模型的請?jiān)感?,正在揭示伴隨著生成式人工智能大爆發(fā)而呼之欲出的人工智能治理。但正如彭博資訊科技專欄作家帕米·奧爾森 (Parmy Olson)指出的那樣,在某種程度上,埃隆·馬斯克的請?jiān)感艁淼奶砹耍驗(yàn)樯墒饺斯ぶ悄芤呀?jīng)釋放了眾多風(fēng)險(xiǎn)。
在巨大的國內(nèi)外監(jiān)管呼吁下,ChatGPT之父、OpenAI首席執(zhí)行官山姆·奧特曼(Sam Altman)于當(dāng)?shù)貢r間2023年5月16日,在美國國會就人工智能技術(shù)的潛在風(fēng)險(xiǎn)參加聽證會,并首次公開呼吁政府對生成式人工智能進(jìn)行監(jiān)管和干預(yù)。他的配合態(tài)度無疑將對生成式AI產(chǎn)業(yè)起到示范作用,對政府和社會的治理起到積極作用,預(yù)示著人工智能治理的又一個轉(zhuǎn)捩點(diǎn)。
那么,生成式人工智能 ChatGPT到底釋放了何種風(fēng)險(xiǎn)?將給人類社會帶來怎樣的沖擊與挑戰(zhàn)?通過簡單梳理三、四月份涌現(xiàn)出的政府、機(jī)構(gòu)和行業(yè)對于生成式人工智能的負(fù)面反饋,我們便可以初步管窺。在西方社會,人工智能帶來的一般社會問題首先表現(xiàn)為權(quán)利與法的特殊形式,本文將之概括為權(quán)責(zé)危機(jī),即相關(guān)的權(quán)利與義務(wù)的調(diào)整、生成與分配上存在著危機(jī),而其本質(zhì)上則是擁有不同利益關(guān)切的社會組織與群體間的關(guān)系問題,換言之,即社會關(guān)系問題。
01
國會聽證會中的OpenAI首席執(zhí)行官
值得注意的是,5月16日,OpenAi首席執(zhí)行官山姆·阿特曼(Sam Altman)出席參議院司法隱私、技術(shù)和法律小組委員會(Senate Judiciary Privacy, Technology & the Law Subcommittee)名為“人工智能監(jiān)督:人工智能規(guī)則”(Oversight of A.I.: Rules for Artificial Intelligence)的聽證會,這也是阿特曼首次公開亮相國會山。聽證會聚焦人工智能技術(shù)增長帶來的公權(quán)力監(jiān)管、就業(yè)以及用戶關(guān)系等挑戰(zhàn)。
圖源:路透社
5月15日,阿特曼先與約60名眾議員舉行晚宴,并向他們閉門演示了一些ChatGPT的功能與場景。根據(jù)CNBC的報(bào)道,議員們對此評價(jià)頗高。“我認(rèn)為這太棒了,”眾議院民主黨核心小組副主席、加利福尼亞州民主黨眾議員泰德·劉(Ted Lieu)說,“讓國會議員全神貫注將近兩個小時并不容易,為此阿特曼提供了很多信息”;密歇根州民主黨眾議員海莉·史蒂文斯(Haley Stevens)表示,盡管她已進(jìn)入國會的第三個任期,但她“從未參加過這樣的會議”,并稱贊“我們整個國會的所有代表聚集在一起”參與“一個正在改變我們世界的話題”。
據(jù)《紐約時報(bào)》報(bào)道,聽證會總體氣氛輕松和睦,議員并未對奧特曼先生進(jìn)行粗暴的盤問,因?yàn)樗麄兏兄x阿特曼先生與他們私下會面并同意出席聽證會,“阿特曼(談?wù)撐C(jī)時)的坦率與真誠吸引了華府的許多人”,新澤西州民主黨人科里·布克(Cory Booker)更是多次以“山姆”直呼阿特曼。對此,CNN評論稱,阿特曼在幾小時內(nèi)就完成了其他技術(shù)高管多年來一直試圖努力達(dá)到的目標(biāo):他“迷住了國會”。
阿特曼在美國參議院聽證會上表示,人工智能被用來操縱選民和針對虛假信息的可能性是他“最關(guān)心的領(lǐng)域”,尤其是因?yàn)椤懊绹髂陮⒚媾R選舉,而這些模型正在變得更為強(qiáng)大。”
對于工作崗位問題,阿特曼承認(rèn)人工智能技術(shù)的發(fā)展會“破壞一些工作崗位”,但也會“創(chuàng)造新的崗位”。在新舊崗位的更替中,阿特曼認(rèn)為政府應(yīng)該著手制定緩解相應(yīng)沖擊的措施。
阿特曼還對用戶隱私問題進(jìn)行了回應(yīng),他認(rèn)為人工智能的用戶應(yīng)有選擇刪除(輸入給AI的)個人數(shù)據(jù)的權(quán)利,而這些數(shù)據(jù)是訓(xùn)練AI模型的材料之一。
在5月15日晚,阿特曼在晚宴時首先提及人工智能監(jiān)管的問題,阿特曼說,“我認(rèn)為一旦(人工智能)這項(xiàng)技術(shù)出了問題,則可能就是極為嚴(yán)重的問題。我們希望對此直言不諱……我們希望與政府合作,防止這種情況發(fā)生”。而在聽證會,阿特曼則指出,需要對人工智能進(jìn)行監(jiān)管,如果沒有針對(可能出現(xiàn)的)更強(qiáng)大人工智能的嚴(yán)格監(jiān)管標(biāo)準(zhǔn),未來二十年內(nèi)將會出現(xiàn)更多清晰的危險(xiǎn)。阿特曼還建議,成立一個以美國為主導(dǎo)的人工智能監(jiān)管機(jī)構(gòu),該機(jī)構(gòu)有權(quán)向?qū)嶓w授予或吊銷開發(fā)人工智能的許可,而這類許可將具有極其強(qiáng)大的約束力。不過,盡管阿特曼對人工智能的潛在危害進(jìn)行了約三小時的討論,他仍確認(rèn)OpenAI將繼續(xù)開發(fā)有關(guān)技術(shù),他認(rèn)為,OpenAI對AI模型的“迭代部署”并不是魯莽行事,而是讓機(jī)構(gòu)有時間了解潛在威脅——這一戰(zhàn)略舉措將“相對薄弱”和“非常不完善”的技術(shù)引入世界,以幫助發(fā)現(xiàn)相關(guān)的安全風(fēng)險(xiǎn)。
在聽證會上,共和黨參議員喬什·霍利(Josh Hawley)表示,人工智能可能具有革命性,但也將此比作“原子彈”的發(fā)明。民主黨參議員、委員會技術(shù)小組主席理查德·布盧門撒爾(Richard Blumenthal)則稱,人工智能主導(dǎo)的未來“不一定是我們想要的未來”。參議員理查德·布盧門撒爾(Richard Blumenthal)表示,此次聽證會是旨在更多地了解人工智能的潛在利弊并最終為其“制定規(guī)則”的一系列聽證會中的第一次。
不過阿特曼也面臨批評。華盛頓大學(xué)計(jì)算機(jī)語言學(xué)教授艾米莉·班德(Emily Bender)批評阿特曼與眾議員們在晚宴上的表現(xiàn),“在參加旨在告知該行業(yè)如何受到監(jiān)管的聽證會之前,作為受監(jiān)管約束的行業(yè)公司之一,其首席執(zhí)行官向監(jiān)管機(jī)構(gòu)進(jìn)行了一場魔術(shù)表演,這似乎非常糟糕”。班德補(bǔ)充說,“政客與記者一樣,必須抵制被打動的沖動”。政策研究中心AI Now Institute常務(wù)董事莎拉·邁爾斯·韋斯特(Sarah Myers West)則稱,阿特曼的法規(guī)建議不夠深入,還應(yīng)該包括限制人工智能在警務(wù)中的使用方式以及在生物識別數(shù)據(jù)等領(lǐng)域的使用。她指出,阿特曼沒有表現(xiàn)出任何減緩ChatGPT工具開發(fā)的跡象。West女士評論稱:“看到人們對危害的擔(dān)憂態(tài)度是如此具有諷刺意味,(而正是)這些人正在迅速將造成這些危害的系統(tǒng)投入商業(yè)使用?!?/p>
02
ChatGPT的社會沖擊與權(quán)責(zé)危機(jī)
生成式人工智能對的社會沖擊在首當(dāng)其沖的西方世界中首先表現(xiàn)為對基本人權(quán)及其引申出的諸多權(quán)利構(gòu)成的沖擊,進(jìn)而對社會穩(wěn)定與可持續(xù)發(fā)展構(gòu)成的威脅。具體來說,其可能對社會與公眾的安全、所有權(quán)與生存發(fā)展,以及相關(guān)的社會公共治理造成沖擊。
(一)安全問題
生成式人工智能可能給人身、財(cái)產(chǎn)和隱私與信息安全帶來威脅,從而威脅社會的普遍安全。
3月21日,紐約大學(xué)心理學(xué)與神經(jīng)科學(xué)教授加里·馬庫斯(Gary Marcus)就對ChatGPT的生成產(chǎn)品表示了擔(dān)憂,認(rèn)為由于大型語言模型(Large language model,簡稱LLM)的自身缺陷,可能會增加錯誤信息,從而影響社會上流通的信息的真實(shí)性,影響政治、經(jīng)濟(jì)與社會的安全與穩(wěn)定。ICO監(jiān)管風(fēng)險(xiǎn)執(zhí)行董事Stephen Almond也就大型語言模型對數(shù)據(jù)安全構(gòu)成的風(fēng)險(xiǎn)發(fā)出了警告。
六天后,3月27日,歐盟警方歐洲刑警組織(European Union police force,簡稱Europol)就曾發(fā)出警告,指出ChatGPT可能被不法分子用于網(wǎng)絡(luò)釣魚、傳播虛假信息和網(wǎng)絡(luò)犯罪,從而對民眾的人身、財(cái)產(chǎn)和信息安全造成負(fù)面影響。
僅僅三天后,美國AI和數(shù)字政策中心(CAIDP)向美國聯(lián)邦貿(mào)易委員會(FTC)提起訴訟,指出AI文本生成工具“存在偏見、具有欺騙性,并且對公共安全構(gòu)成風(fēng)險(xiǎn)(biased, deceptive, and a risk to privacy and public safety)”,要求政府調(diào)查OpenAI是否違反了消費(fèi)者保護(hù)規(guī)則,并對生成式人工智能的發(fā)展實(shí)施更為嚴(yán)格的監(jiān)管。
緊隨其后,在3月31日和4月5日,意大利數(shù)據(jù)保護(hù)監(jiān)管機(jī)構(gòu)與英國數(shù)據(jù)監(jiān)管機(jī)構(gòu)分別對ChatGPT于3月20日發(fā)生的數(shù)據(jù)泄露事件開展調(diào)查、監(jiān)管與處罰。前者認(rèn)為人工智能在訓(xùn)練算法時大規(guī)模收集和存儲個人數(shù)據(jù)的行為缺少法律依據(jù),并指出ChatGPT在實(shí)際運(yùn)行中可能違反數(shù)據(jù)保護(hù)規(guī)則。而后者則強(qiáng)調(diào)現(xiàn)有數(shù)據(jù)保護(hù)法律體系對生成式人工智能產(chǎn)品在數(shù)據(jù)隱私保護(hù)義務(wù)方面的強(qiáng)制約束力。
這些新聞也揭示了生成式人工智能在造謠傳謠、隱私泄露、被用于違法犯罪活動等問題上應(yīng)該承擔(dān)的義務(wù)。
(二)所有權(quán)問題
私有制與所有權(quán)是現(xiàn)代社會的普遍制度與法律安排,涉及到人對自己的財(cái)產(chǎn)占有、使用、收益和處分等權(quán)利。在生成式人工智能方面,所有權(quán)體系面臨的沖擊主要是以版權(quán)為重要表現(xiàn)的知識產(chǎn)權(quán)及其收益權(quán)。
3月7日,美國波士頓聯(lián)邦法院在初創(chuàng)公司Neural Magic訴Meta公司侵犯其人工智能產(chǎn)權(quán)案中判定Meta公司敗訴。美國地區(qū)法官丹尼斯·卡斯珀(Dennis Kasper)表示,Neural Magic于2020年起訴Meta,指控其竊取自己的人工智能算法。
可以想象,伴隨著生成式人工智能軍備競賽的無序擴(kuò)張,各個科技巨頭間的惡性競爭很可能引發(fā)對初創(chuàng)科技企業(yè)的人工智能相關(guān)技術(shù)產(chǎn)權(quán)的吞并和侵奪,從而對現(xiàn)有知識產(chǎn)權(quán)保護(hù)體系構(gòu)成沖擊與調(diào)整。
除了技術(shù)產(chǎn)權(quán),文藝作品的版權(quán)同樣遭受到挑戰(zhàn)。4月2日,澳大利亞新聞集團(tuán)首席執(zhí)行官M(fèi)ichael Miller表示,如果允許ChatGPT這類的人工智能產(chǎn)品利用他人的原創(chuàng)內(nèi)容謀利而不支付報(bào)酬,內(nèi)容創(chuàng)作行業(yè)將遭受毀滅性的打擊。他指出,生成式人工智能的訓(xùn)練和產(chǎn)品生成,需要以包括內(nèi)容創(chuàng)作行業(yè)從業(yè)者的圖文作品在內(nèi)的數(shù)據(jù)集與信息庫為基礎(chǔ)。然而,在這一過程中,人工智能應(yīng)用程序卻沒有為其運(yùn)用的新聞和內(nèi)容付費(fèi)。因此,他要求政府應(yīng)制定相關(guān)法律,保障內(nèi)容創(chuàng)作者的權(quán)益。
這揭示了對生成式人工智能產(chǎn)品運(yùn)行所需的信息與數(shù)據(jù)的所有權(quán)識別與認(rèn)證問題,以及由生成式人工智能生成的圖文產(chǎn)品的版權(quán)歸屬與分配問題。
(三)生存發(fā)展權(quán)問題
生成式人工智能對生存發(fā)展權(quán)帶來的最引人注目的沖擊,就是對就業(yè)與工作權(quán)利,造成的挑戰(zhàn)。這是生成式AI發(fā)展帶來的系統(tǒng)性的負(fù)外部性。
根據(jù)Open AI自己發(fā)布的研究報(bào)告《GPT就是GPT:大型語言模型對勞動力市場潛在影響初探》(《GPTs are GPTs: An early look at the labor market impact potential of large language models》)顯示,對約80%的美國勞動者而言,其10%的工作任務(wù)會被生成式人工智能的大語言模型影響,而對另外約19%的勞動者而言,其至少50%的工作會受到影響。其中,編程和寫作類技巧占主導(dǎo)的工作將主要受到波及。
將會受到生成式AI影響的職業(yè) 圖源:OpenAI
根據(jù)資本的或所謂“效率”的邏輯,更高的生產(chǎn)效率意味著生產(chǎn)相同單位產(chǎn)品可以投入更少的勞動,這意味著一部分職業(yè)的從業(yè)者可能在享受人工智能帶來的便利的同時,也會看到高懸在頭頂上的“失業(yè)”的“達(dá)摩克里斯之劍”。
早在3月份,高盛的約瑟夫·布里格斯(Joseph Briggs)和德維什·科德納尼(Devesh Kodnani)便撰寫的報(bào)告稱,像chatGPT這樣的生成式人工智能系統(tǒng)可能會全球3億個全職工作崗位,尤其是白領(lǐng)工作。其中,大約三分之二的工作將面臨某種程度的自動化,而四分之一的工作可能被人工智能取代。高盛的報(bào)告強(qiáng)調(diào)美國的法律工作者與行政人員尤其會受到生成式AI的沖擊。而早些時候,普林斯頓大學(xué)(Princeton University)、賓夕法尼亞大學(xué)(University of Pennsylvania)和紐約大學(xué)(new York University)的研究人員進(jìn)行的一項(xiàng)評估也表示,法律服務(wù)行業(yè)最有可能受到chatGPT的影響。
Insider 在與包括麥肯錫全球研究所合伙人 Anu Madgavkar、高盛研究者 Manav Raj和畢馬威合伙人迪倫·羅伯茨 (Dylan Roberts) 在內(nèi)的專家們討論研究的基礎(chǔ)上,給出了一份被人工智能取代風(fēng)險(xiǎn)最高的工作清單,其中包括:
● 技術(shù)工作(編碼員、計(jì)算機(jī)程序員、軟件工程師、數(shù)據(jù)分析師)
● 媒體工作(廣告、內(nèi)容創(chuàng)作、技術(shù)寫作、新聞)
● 法律行業(yè)工作(律師助理、法律助理)
● 市場研究分析師
● 教師
● 財(cái)務(wù)職位(財(cái)務(wù)分析師、個人財(cái)務(wù)顧問)
● 貿(mào)易商
● 平面設(shè)計(jì)師
● 會計(jì)師
● 客戶服務(wù)代理
這些擔(dān)憂或許是人工智能發(fā)展對就業(yè)市場帶來系統(tǒng)性沖擊,倒逼勞動力群體轉(zhuǎn)型或升級的前奏。一旦沖擊發(fā)生,相關(guān)行業(yè)從業(yè)者的就業(yè)、生存與發(fā)展無疑會成為社會的重大問題。屆時,整個社會的結(jié)構(gòu)與社會治理體系都需要進(jìn)行系統(tǒng)性的調(diào)整以應(yīng)對。
(四)公開透明問題
而科技巨頭對人工智能開發(fā)的高度壟斷性與封閉性則可能給普通民眾對人工智能工具的知情權(quán)、可使用性與其紅利的可及性(accessibility)帶來影響。這是制度性的負(fù)外部性。
一方面,民眾無法獲得人工智能發(fā)展的相關(guān)信息可能會阻礙他們對相關(guān)領(lǐng)域公共治理的參與。另一方面,壟斷技術(shù)的科技巨頭可能會使得普通民眾喪失議價(jià)權(quán),從而限制一般社會大眾對于這種前沿生產(chǎn)工具的使用,以及對其紅利的享有。
正如4月19日42個德國工會與協(xié)會組織就人工智能治理向政府請?jiān)笗r提到的那樣,政府應(yīng)該制定規(guī)則,明確責(zé)任與問責(zé)制度,監(jiān)管人工智能基礎(chǔ)模型供應(yīng)商,以便在整個產(chǎn)品周期中規(guī)范人工智能的研發(fā)與生產(chǎn)。而意大利數(shù)據(jù)保護(hù)局也對ChatGPT提出了數(shù)據(jù)管理的透明度要求。
參考文獻(xiàn)
https://www.businessinsider.com/chatgpt-jobs-at-risk-replacement-artificial-intelligence-ai-labor-trends-2023-02#tech-jobs-coders-computer-programmers-software-engineers-data-analysts-1
https://www.businessinsider.com/generative-ai-chatpgt-300-million-full-time-jobs-goldman-sachs-2023-3
https://openai.com/research/gpts-are-gpts
https://cointelegraph.com/news/elon-musk-and-tech-execs-call-for-pause-on-ai-development
https://cointelegraph.com/news/elon-musk-led-petition-to-halt-ai-development-divides-tech-community
https://www.washingtonpost.com/technology/2023/04/09/ai-safety-openai/
https://apnews.com/article/artificial-intelligence-chatgpt-risks-petition-elon-musk-steve-wozniak-534f0298d6304687ed080a5119a69962
https://www.bloomberg.com/opinion/articles/2023-03-30/elon-musk-wants-to-pause-ai-progress-with-chatgpt-it-s-too-late-for-that?srnd=technology-vp&leadSource=uverify%20wall
https://www.jiemian.com/article/8893975.html
https://deepai.org/publication/gpt-4-technical-report
https://www.thepaper.cn/newsDetail_forward_22522162
https://mingukkang.github.io/GigaGAN/
https://www.anthropic.com/index/introducing-claude
https://ui.adsabs.harvard.edu/abs/2023arXiv230311717Z/abstract
https://ui.adsabs.harvard.edu/abs/2022arXiv220613353C/abstract
https://80.lv/articles/chatgpt-is-the-iphone-moment-of-ai-nvidia-ceo-says/
https://80.lv/articles/chatgpt-is-the-iphone-moment-of-ai-nvidia-ceo-says/
https://www.reuters.com/technology/venture-capitalists-race-land-next-ai-deal-big-techs-turf-2023-03-24/
https://cloud.tencent.com/developer/news/1045399
https://mp.weixin.qq.com/s/FXnD4onCIBQLM5XyWbQzUQ
https://mp.weixin.qq.com/s/3425N1dtb9GXSKCFylOsnQ
https://mp.weixin.qq.com/s/7QBFApCUl0Jl72pYBlDM1w
https://mp.weixin.qq.com/s/xZh7YPdi19w1XwJEYIW6DA
https://mp.weixin.qq.com/s/efBNTNrhUSaFptuhLFSzeg
https://mp.weixin.qq.com/s/9KIFVYcm0S-Ejofu6NCRHw
https://mp.weixin.qq.com/s/cuq1xSCaRNONic1xPnsVCw
https://mp.weixin.qq.com/s/cg_k8FLwHYuGmktQy_kZ2w
https://mp.weixin.qq.com/s/bzGjzXdIAjmM3H5RKwml_Q
https://mp.weixin.qq.com/s/y7k7CXkcK3bdsvCyLId74g
https://twitter.com/bcmerchant/status/1641553523849728000?s=20
https://www.washingtonpost.com/technology/2023/04/09/ai-safety-openai/
https://cointelegraph.com/news/eu-legislators-call-for-safe-ai-as-google-s-ceo-cautions-on-rapid-development
https://www.reuters.com/world/europe/german-authors-performers-call-tougher-chatgpt-rules-amid-copyright-concerns-2023-04-19/
https://www.cnn.com/2023/05/16/tech/sam-altman-openai-congress/index.html
https://www.washingtonpost.com/technology/2023/05/16/sam-altman-open-ai-congress-hearing/
https://www.cnbc.com/2023/05/16/openai-ceo-woos-lawmakers-ahead-of-first-testimony-before-congress.html
https://www.nytimes.com/2023/05/16/technology/openai-altman-artificial-intelligence-regulation.html
https://www.cnn.com/2023/05/17/tech/sam-altman-congress/index.html
聯(lián)系客服