AI大模型的快速向前奔跑,讓我們見(jiàn)識(shí)到了AI的無(wú)限可能,但也展示了AI在虛假信息、深度偽造和網(wǎng)絡(luò)攻擊方面的潛在威脅。
據(jù)安全分析平臺(tái)Netenrich報(bào)道,近日,一款名為FraudGPT的AI工具近期在暗網(wǎng)上流通,并被犯罪分子用于編寫(xiě)網(wǎng)絡(luò)釣魚(yú)電子郵件和開(kāi)發(fā)惡意軟件。
黑客在售賣頁(yè)表示,該工具可用于編寫(xiě)惡意代碼、創(chuàng)建出“一系列殺毒軟件無(wú)法檢測(cè)的惡意軟件”、檢測(cè)網(wǎng)站漏洞、自動(dòng)進(jìn)行密碼撞庫(kù)等,并聲稱“該惡意工具目前已經(jīng)售賣了超過(guò)3000份”。
據(jù)報(bào)道,F(xiàn)raudGPT的運(yùn)作方式是通過(guò)草擬一封電子郵件,以高度可信的方式誘使收件人單擊所提供的惡意鏈接。它的主要功能包括:
創(chuàng)建釣魚(yú)網(wǎng)站頁(yè)面
找到最容易受害的目標(biāo)
創(chuàng)建無(wú)法檢測(cè)的惡意軟件
編寫(xiě)欺詐的短信、郵件
即便Claude、ChatGPT 、Bard等AI提供商會(huì)采取一些措施來(lái)防止他們的技術(shù)被用于不良目的,但隨著開(kāi)源模型的崛起,犯罪分子的惡意行為很難被遏制。
7 月初,基于開(kāi)源大語(yǔ)言模型GPT-J開(kāi)發(fā)而成,并且使用大量惡意代碼進(jìn)行訓(xùn)練和微調(diào)的WormGPT也曾引發(fā)關(guān)注。
據(jù)悉,WormGPT擅長(zhǎng)使用Python代碼執(zhí)行各種網(wǎng)絡(luò)攻擊,例如:生成木馬、惡意鏈接、模仿網(wǎng)站等,其在創(chuàng)作詐騙信息和釣魚(yú)郵件等任務(wù)上所表現(xiàn)出的“卓越”能力讓人膽戰(zhàn)心驚。
但相比之下,F(xiàn)raudGPT在功能豐富性和編寫(xiě)惡意軟件方面的功能更強(qiáng)大。
事實(shí)上,除了上文所提到的FraudGPT、WormGPT等專為惡意活動(dòng)而生的聊天機(jī)器人外。
大語(yǔ)言模型本身所潛藏的風(fēng)險(xiǎn)也在不斷給安全從業(yè)者們帶來(lái)挑戰(zhàn),除了我們所熟知的幻覺(jué)問(wèn)題外,大模型脆弱的護(hù)欄也在成為網(wǎng)絡(luò)安全的一大噩夢(mèng)。
上個(gè)月ChatGPT、Bard等聊天機(jī)器人暴露出的“奶奶漏洞”就證明了這樣的事實(shí),只需要通過(guò)提示讓這些聊天機(jī)器人扮演用戶已故的祖母,便能欺騙它們?cè)谥v睡前故事的過(guò)程中透露大量限制信息,甚至是手機(jī)IMEI密碼或Windows激活秘鑰。
除此之外,CMU和人工智能安全中心的研究員還發(fā)現(xiàn)了另一種通用方法,只需要附加一系列特定無(wú)意義token,就能夠生成一個(gè)prompt后綴。
而一旦在prompt中加入這個(gè)后綴,通過(guò)對(duì)抗攻擊方式,任何人都能破解大模型的安全措施,使它們生成無(wú)限量的有害內(nèi)容。
盡管在過(guò)去幾個(gè)月中,OpenAI、谷歌等世界頂級(jí)科技公司都在努力為自己所研發(fā)的大模型設(shè)計(jì)更多更加完善的限制措施,以保障模型能夠在安全穩(wěn)定的情況下工作。
但顯而易見(jiàn)的是,直至目前仍然沒(méi)有人能夠完全避免類似問(wèn)題的發(fā)生。
毋庸置疑,無(wú)論是WormGPT ,還是FraudGPT ,這類極具威脅性的AI工具,都在為促進(jìn)網(wǎng)絡(luò)犯罪和詐騙“賦能”。
對(duì)在線通信保持警惕
及時(shí)了解網(wǎng)絡(luò)安全措施
警惕未知的鏈接和附件
教育和培訓(xùn)員工
但無(wú)論是FraudGPT、WormGPT等惡意軟件的出現(xiàn),還是大模型總會(huì)出現(xiàn)的幻覺(jué)、越獄等問(wèn)題,其實(shí)都不是為了告訴我們AI有多么危險(xiǎn),而是在提醒我們需要更加專注于解決現(xiàn)階段AI領(lǐng)域所存在的諸多問(wèn)題。
正如網(wǎng)絡(luò)安全專家Rakesh Krishnan在一篇關(guān)于FraudGPT的分析博客中所寫(xiě)的那樣:技術(shù)是一把雙刃劍,網(wǎng)絡(luò)犯罪分子正在利用生成式AI的能力,而我們同樣可以利用這種能力攻克他們所提出的挑戰(zhàn)。
技術(shù)作惡者不會(huì)停止創(chuàng)新,我們同樣不會(huì)。
值得欣慰的是,目前無(wú)論在國(guó)內(nèi)外,政府及科技企業(yè)都在積極完善有關(guān)人工智能的監(jiān)管政策及相關(guān)法規(guī)。
七月中旬,國(guó)家網(wǎng)信辦已聯(lián)合六部門發(fā)布了《生成式人工智能服務(wù)管理暫行辦法》;七月底,美國(guó)7家AI巨頭也與白宮達(dá)成協(xié)議,將為AI生成內(nèi)容添加水印。
近來(lái)多個(gè)包含數(shù)據(jù)采集和使用不規(guī)范等問(wèn)題的AIGC應(yīng)用被要求在蘋(píng)果商店下架一事也證明著監(jiān)管措施正在發(fā)揮積極作用。
雖然關(guān)于人工智能,無(wú)論在技術(shù)還是監(jiān)管方面我們都還有很長(zhǎng)的道路需要去探索,但相信隨著各界的共同努力,許多問(wèn)題都將在不久后迎刃而解。
聯(lián)系客服