編輯:桃子 Joey
【新智元導(dǎo)讀】Hinton對(duì)AI恐懼不是沒(méi)有道理?,F(xiàn)在,德克薩斯大學(xué)開(kāi)發(fā)的一種類ChatGPT模型都能讀心了,準(zhǔn)確率高達(dá)82%,網(wǎng)友驚呼精神隱私在哪?
神經(jīng)網(wǎng)絡(luò)之父Geoffrey Hinton離職谷歌,直言對(duì)畢生工作感到后悔。
現(xiàn)在看來(lái),他對(duì)AI的害怕,不是沒(méi)有道理。
因?yàn)?,一種類ChatGPT模型已經(jīng)學(xué)會(huì)了讀心術(shù),準(zhǔn)確率高達(dá)82%!
來(lái)自德克薩斯大學(xué)奧斯汀分校的研究者開(kāi)發(fā)了一種基于GPT的語(yǔ)言解碼器。
它能通過(guò)非侵入性的MRI/fMRI收集大腦活動(dòng)信息,并將思維轉(zhuǎn)化為語(yǔ)言文字。
論文地址:
https://www.nature.com/articles/s41593-023-01304-9
令人震驚的是,當(dāng)你在看皮克斯無(wú)聲電影時(shí),大腦解碼器都能讀出你的想法。
這個(gè)類ChatGPT模型,以前所未有的準(zhǔn)確率解碼人類思想,不僅開(kāi)啟了大腦成像的新潛力,并引發(fā)了人們對(duì)隱私的擔(dān)憂。
研究一出,在網(wǎng)上掀起了軒然大波。網(wǎng)友驚呼,太恐怖了。
我們離真正的思想警察更近了一步。
GPT讀心,準(zhǔn)確率高達(dá)82%
那么,這個(gè)恐怖的大腦解碼器是怎么實(shí)現(xiàn)「讀心」的?
這里,不得不提功能性磁共振成像(fMRI)技術(shù),它能通過(guò)監(jiān)測(cè)大腦皮層不同部位的血氧水平得到大腦的動(dòng)態(tài)變化圖像。
因此只需分析功能磁共振成像數(shù)據(jù),就可以以非侵入性的方式,將參與者大腦中所想的故事甚至圖像用語(yǔ)言描述出來(lái)。
腦部活動(dòng)就像是加密過(guò)的信號(hào),而經(jīng)過(guò)預(yù)訓(xùn)練的大型語(yǔ)言模型提供了破譯的途徑。
在此,研究人員基于GPT-1訓(xùn)練了一個(gè)神經(jīng)網(wǎng)絡(luò)語(yǔ)言模型。
Alexander Huth讓3名受試者,連續(xù)聽(tīng)16個(gè)小時(shí)的語(yǔ)音播客,并收集他們聆聽(tīng)時(shí)的fMRI數(shù)據(jù)。
這些語(yǔ)言播客主要是一些脫口秀和TED的演講,比如紐約時(shí)報(bào)的Modern Love。
接下來(lái)研究人員借助大型語(yǔ)言模型將參與者的fMRI數(shù)據(jù)集翻譯成單詞和短語(yǔ)。
隨后測(cè)試參與者聽(tīng)新錄音的腦部活動(dòng),通過(guò)觀察翻譯文本與參與者聽(tīng)到的文本的接近程度,就可以知道解碼器到底準(zhǔn)不準(zhǔn)。
通過(guò)對(duì)比人聽(tīng)到的語(yǔ)句(左)和解碼器根據(jù)大腦活動(dòng)輸出的語(yǔ)句(右)可以發(fā)現(xiàn),藍(lán)色和紫色部分占絕大多數(shù),藍(lán)色代表完全一致,紫色代表大意準(zhǔn)確。
雖然幾乎每個(gè)單詞都不是一一對(duì)應(yīng),但是整個(gè)句子的意義被保留了下來(lái),也就是解碼器在給大腦信號(hào)「釋義」。
比如最后一句,受試者聽(tīng)到的是「我還沒(méi)拿到駕照」,而解碼器給出的回答是「她還沒(méi)準(zhǔn)備好開(kāi)始學(xué)車(chē)」。
正如研究者所稱,人工智能無(wú)法將思想轉(zhuǎn)化確切詞匯或句子,而是改寫(xiě)。
隨后,受試者被要求安靜地在腦中構(gòu)思一個(gè)故事,然后大聲復(fù)述出來(lái),來(lái)看看復(fù)述版本和解碼器翻譯版的差別。
可以看到,意義的重合度還是很高的。
最后,受試者觀看了一段動(dòng)畫(huà)電影,這段電影沒(méi)有任何聲音,但通過(guò)分析他們的大腦活動(dòng),解碼器可以了解他們正在觀看的內(nèi)容的概要。
實(shí)驗(yàn)結(jié)果發(fā)現(xiàn),GPT模型從感知語(yǔ)音、想象語(yǔ)音、甚至無(wú)聲視頻中生成可理解的單詞序列,其準(zhǔn)確性令人驚嘆。
具體準(zhǔn)確率如下:
感知語(yǔ)音(受試者聽(tīng)錄音) : 72-82%
想象語(yǔ)言(受試者在內(nèi)心講述一個(gè)一分鐘的故事) : 41-74%
無(wú)聲電影(受試者觀看皮克斯無(wú)聲電影剪輯): 21-45%
麻省理工大學(xué)的神經(jīng)科學(xué)家Greta Tuckute說(shuō),語(yǔ)言感知是一個(gè)外部驅(qū)動(dòng)的過(guò)程,而想象力是一個(gè)活躍的內(nèi)部過(guò)程,通過(guò)大型語(yǔ)言模型可以將內(nèi)在的腦部活動(dòng)展示在我們眼前。
我們現(xiàn)在是否能從大腦讀取信息?是的,某種程度上可以。
有朝一日,這個(gè)解碼器可能會(huì)被用來(lái)幫助那些喪失說(shuō)話能力,或者調(diào)查心理健康狀況的人們。
精神隱私,也沒(méi)了
然而,解碼人類思想的前景還引發(fā)了關(guān)于精神隱私的問(wèn)題。
Huth博士指出,這種語(yǔ)言解碼方法存在一定局限性。
因?yàn)?,fMRI掃描儀體積龐大且價(jià)格昂貴,此外訓(xùn)練模型是一個(gè)漫長(zhǎng)而乏味的過(guò)程,也就是必須對(duì)每個(gè)人都進(jìn)行單獨(dú)的訓(xùn)練。
對(duì)此,研究小組進(jìn)行了一項(xiàng)額外的研究,使用接受過(guò)其他受試者數(shù)據(jù)訓(xùn)練的解碼器,來(lái)解碼新受試者的想法。
研究發(fā)現(xiàn),對(duì)使用不同受試者數(shù)據(jù)進(jìn)行訓(xùn)練的解碼器,其表現(xiàn)幾乎不怎么樣。
簡(jiǎn)言之,只有使用受試者自己大腦記錄的數(shù)據(jù),來(lái)訓(xùn)練AI模型,其準(zhǔn)確率才會(huì)非常高。
這表明每個(gè)大腦都有獨(dú)特的表示意義的方式。
另外,參與者還能夠屏蔽他們內(nèi)心的獨(dú)白,通過(guò)思考其他事情來(lái)擺脫解碼器。比如數(shù)到七、列出農(nóng)場(chǎng)動(dòng)物,或敘述一個(gè)完全不同的故事。
也就是說(shuō),這一解碼器要想要獲得準(zhǔn)確的結(jié)果,必須需要志愿者的配合。
然而,科學(xué)家們承認(rèn),未來(lái)的解碼器可能會(huì)克服這些限制,未來(lái)可能會(huì)被濫用,就像測(cè)謊儀一樣。
研究人員總結(jié)道,一個(gè)美麗的新世界正在到來(lái),由于這些和其他不可預(yù)見(jiàn)的原因。
提高人們對(duì)大腦解碼技術(shù)風(fēng)險(xiǎn)的認(rèn)識(shí)并制定保護(hù)每個(gè)人精神隱私的政策是至關(guān)重要的。
在《黑鏡》中有這樣一幕,一位保險(xiǎn)代理人使用一臺(tái)機(jī)器(配備了視覺(jué)監(jiān)控器和大腦傳感器)讀取人們的記憶,來(lái)調(diào)查一起意外死亡事件。
然而,這一未來(lái)或許就是現(xiàn)在。
德克薩斯大學(xué)研究者這一突破,直接推動(dòng)了神經(jīng)科學(xué)、通信和人機(jī)交互等領(lǐng)域潛在應(yīng)用。
盡管「大腦解碼器」還在研究中早期階段,但有朝一日它可能被用于記錄人們的夢(mèng)境,并為腦機(jī)接口進(jìn)一步發(fā)展提供動(dòng)力。
負(fù)責(zé)這項(xiàng)研究的神經(jīng)科學(xué)家Alexander Huth博士稱,我們對(duì)這項(xiàng)工作的原理感到震驚。我為此研究了15年... ... 所以當(dāng)它最終成功時(shí),我感到非常震驚和興奮。
看來(lái),我們離《X戰(zhàn)警》中X教授查爾斯大腦掃描技術(shù)又近了一步。
網(wǎng)友:AI通靈者
看過(guò)這項(xiàng)研究后,讓許多人瞬間「炸腦」。有網(wǎng)友稱,
人工智能不僅可以比我們快一萬(wàn)倍地交流,而且現(xiàn)在甚至可以讀取我們的思想。在 「這太酷了」和 「等等,我們是不是要被淘汰了」之間只有一線之隔。
AI現(xiàn)在可以像通靈者一樣讀心。「Keep in mind」,這只是1.0版本。在未來(lái),我們的想法將不再是隱私。世界經(jīng)濟(jì)論壇的第四次工業(yè)革命非常清晰地闡述了這一點(diǎn)。
這是首次以非侵入性方式從人類大腦活動(dòng)中重建連續(xù)的語(yǔ)言!
對(duì)于這項(xiàng)研究,生物倫理學(xué)家 Rodriguez-Arias Vailhen稱,目前為止,人類大腦一直是我們隱私的守護(hù)者。
「這一發(fā)現(xiàn)可能是在未來(lái)犧牲這種自由的第一步?!?/span>
參考資料:
https://www.nytimes.com/2023/05/01/science/ai-speech-language.html
https://www.nature.com/articles/d41586-023-01486-z
聯(lián)系客服