ChatGPT 是一個人工智能驅(qū)動的原型聊天機器人,旨在幫助廣泛的用例,包括代碼開發(fā)和調(diào)試。它的主要吸引力之一是用戶能夠以對話方式與聊天機器人進行交互,并獲得從編寫軟件到理解復(fù)雜主題、撰寫論文和電子郵件、改善客戶服務(wù)以及測試不同業(yè)務(wù)或市場場景的所有幫助。但它也可以被用于更黑暗的目的。
自 OpenAI 發(fā)布 ChatGPT 以來,許多安全專家預(yù)測,網(wǎng)絡(luò)犯罪分子開始使用 AI 聊天機器人編寫惡意軟件并執(zhí)行其他惡意活動只是時間問題。像所有新技術(shù)一樣,只要有足夠的時間和激勵,就會有人找到一種方法來利用它。僅僅幾周后,時間似乎已經(jīng)到了。網(wǎng)絡(luò)犯罪分子已經(jīng)開始使用OpenAI的人工智能聊天機器人ChatGPT來快速構(gòu)建黑客工具。詐騙者還在測試ChatGPT構(gòu)建其他聊天機器人的能力,旨在冒充年輕女性誘捕目標(biāo),
事實上,Check Point Research(CPR)的研究人員報告說,至少有三個黑帽黑客在地下論壇上展示了他們?nèi)绾卫肅hatGPT的人工智能智能進行惡意攻擊。
在一個記錄在案的例子中,以色列安全公司Check Point在一個很流行的地下黑客論壇上發(fā)現(xiàn)了一個黑客的帖子,發(fā)帖人說他正在試驗使用流行的人工智能聊天機器人來“重新創(chuàng)建惡意軟件”。
ChatGPT 允許用戶提出簡單的問題或建議,例如編寫追蹤來自托管服務(wù)提供商的電子郵件
黑客將由ChatGPT生成的 Android 惡意軟件壓縮后在網(wǎng)絡(luò)上傳播。據(jù)報道,該惡意軟件能夠竊取感興趣的文件。另一個黑客展示了另一種工具,該工具能夠在計算機上安裝了后門,并可能用更多惡意軟件感染電腦。
Check Point在對情況的評估中指出,一些黑客正在使用ChatGPT來創(chuàng)建他們的第一個腳本。在上述論壇中,另一位用戶分享了一段使用ChatGPT編寫的Python代碼,可以將受害者電腦上的文件加密。雖然這些代碼可以出于無害的原因使用,但Check Point表示,“ChatGPT生成的代碼可以在輕松修改后就能實現(xiàn)完全加密受害者電腦上的文件,而無需任何用戶交互。”。此外,還有黑客在地下論壇上發(fā)帖稱,他使用ChatGPT創(chuàng)建了一段代碼,該代碼使用第三方API來檢索最新的加密貨幣價格,該價格用于暗網(wǎng)市場支付系統(tǒng)。
這家安全公司強調(diào),雖然ChatGPT編碼的黑客工具看起來“非常基礎(chǔ)”,但“更復(fù)雜的威脅行為者增強他們使用基于人工智能的工具的方式只是時間問題。”。美國網(wǎng)絡(luò)安全公司Forescout的安全情報副總裁Rik Ferguson表示,ChatGPT似乎還沒有能力編寫像近年來在重大黑客事件中看到的主要勒索軟件一樣復(fù)雜的東西,例如Conti,因其用于破壞愛爾蘭國家衛(wèi)生系統(tǒng)而臭名昭著。然而,OpenAI的工具將通過構(gòu)建更基本但同樣有效的惡意軟件來降低新手進入非法市場的門檻說。
網(wǎng)絡(luò)情報公司Hold Security的創(chuàng)始人亞歷克斯·霍爾登(Alex Holden)也表示,他看到約會詐騙者也開始使用ChatGPT,因為網(wǎng)絡(luò)犯罪分子試圖創(chuàng)造令人信服的角色?!八麄冋媱潉?chuàng)建聊天機器人,以冒充大多數(shù)女孩試圖實現(xiàn)自動化閑聊用于網(wǎng)絡(luò)詐騙?!?/p>
ChatGPT的開發(fā)人員已經(jīng)實現(xiàn)了一些惡意請求過濾,可以防止AI構(gòu)建間諜軟件的明顯請求。然而,在安全分析師發(fā)現(xiàn)使用ChatGPT后可以在沒有錯別字的情況下編寫語法正確的網(wǎng)絡(luò)釣魚電子郵件后,人工智能聊天框受到了更多的審查。
在一個實例中,惡意軟件作者在其他網(wǎng)絡(luò)犯罪分子使用的論壇中披露了他如何試驗 ChatGPT,看看他是否可以重現(xiàn)已知的惡意軟件和技術(shù)。
攻擊者成功實現(xiàn)的一個例子是,這個人分享了他使用 ChatGPT 開發(fā)的基于 Python 的信息竊取程序的代碼,該竊取程序可以搜索、復(fù)制和泄露 12 種常見文件類型,例如來自受感染系統(tǒng)的 Office 文檔、PDF 和圖像。同一位惡意軟件作者還展示了他如何使用ChatGPT編寫Java代碼來下載PuTTY SSH和telnet客戶端,并通過PowerShell在系統(tǒng)上秘密運行它。
另一位威脅行為者發(fā)布了他使用聊天機器人生成的 Python 腳本,用于使用 Blowfish 和 Twofish 加密算法加密和解密數(shù)據(jù)。安全研究人員發(fā)現(xiàn),盡管該代碼可以用于完全良性的目的,但威脅行為者可以輕松對其進行調(diào)整,使其無需任何用戶交互即可在系統(tǒng)上運行 - 在此過程中使其成為勒索軟件。與信息竊取者的作者不同,一些攻擊者的技術(shù)技能似乎非常有限,實際上聲稱他使用ChatGPT生成的Python腳本是他創(chuàng)建的第一個腳本。
在第三個實例中,安全研究人員發(fā)現(xiàn)一些網(wǎng)絡(luò)犯罪分子正在討論他如何使用ChatGPT創(chuàng)建一個完全自動化的暗網(wǎng)市場,用于交易被盜的銀行賬戶和支付卡數(shù)據(jù),惡意軟件工具,毒品,彈藥和各種其他非法商品。
自 OpenAI 發(fā)布 AI 工具以來,對威脅行為者濫用 ChatGPT 的擔(dān)憂一直很普遍,許多安全研究人員認(rèn)為聊天機器人大大降低了編寫惡意軟件的門檻。
Check Point的威脅情報組經(jīng)理Sergey Shykevich重申,使用ChatGPT,惡意行為者需要沒有編碼經(jīng)驗來編寫惡意軟件:“你應(yīng)該知道惡意軟件或任何程序應(yīng)該具有什么功能。ChatGTP將為您編寫代碼,以執(zhí)行所需的功能。因此,短期的擔(dān)憂肯定是ChatGPT允許低技能的網(wǎng)絡(luò)犯罪分子開發(fā)惡意軟件”Shykevich說?!皬拈L遠(yuǎn)來看,我認(rèn)為更復(fù)雜的網(wǎng)絡(luò)犯罪分子也將采用ChatGPT來提高他們的活動效率,或者解決他們可能存在的不同差距?!?。
“從攻擊者的角度來看,人工智能系統(tǒng)生成代碼的能力允許惡意行為者通過充當(dāng)語言之間的翻譯器來輕松彌合他們可能遇到的任何技能差距?!盚orizon3AI客戶成功經(jīng)理Brad Hong補充道。這些工具提供了一種按需創(chuàng)建與攻擊者目標(biāo)相關(guān)的代碼模板的方法,并減少了他們搜索Stack Overflow和Git等開發(fā)人員網(wǎng)站的需求。
甚至在發(fā)現(xiàn)威脅行為者濫用 ChatGPT 之前,Check Point 與其他一些安全供應(yīng)商一樣,展示了對手如何在惡意活動中利用聊天機器人。在一篇博文中,安全供應(yīng)商描述了其研究人員如何僅通過要求 ChatGPT 編寫一封似乎來自虛構(gòu)網(wǎng)絡(luò)托管服務(wù)的電子郵件來創(chuàng)建聽起來非常合理的網(wǎng)絡(luò)釣魚電子郵件。研究人員還演示了他們?nèi)绾巫孋hatGPT編寫VBS代碼,他們可以粘貼到Excel工作簿中,以便從遠(yuǎn)程URL下載可執(zhí)行文件。
該測試的目的是演示攻擊者如何濫用 ChatGPT 等人工智能模型來創(chuàng)建完整的感染鏈,從最初的魚叉式網(wǎng)絡(luò)釣魚電子郵件到在受影響的系統(tǒng)上運行反向shell。
從目前的情況來看,ChatGPT 無法取代熟練的威脅行為者——至少現(xiàn)在還沒有。但安全研究人員表示,有很多證據(jù)已經(jīng)表明ChatGPT確實有助于低技能黑客創(chuàng)建惡意軟件,這將持續(xù)引發(fā)公眾對網(wǎng)絡(luò)犯罪濫用該技術(shù)的擔(dān)憂。
一開始,一些安全研究人員認(rèn)為 ChatGPT 用戶界面中的限制很弱,并發(fā)現(xiàn)威脅行為者可以輕松繞過障礙。從那以后,Shykevich表示,OpenAI一直在努力改善聊天機器人的限制。
“我們看到對ChatGPT用戶界面的限制每周都高得多。因此,現(xiàn)在使用ChatGPT進行惡意或濫用活動更加困難,“他說。
但是網(wǎng)絡(luò)犯罪分子仍然可以通過使用和避免某些允許用戶繞過限制的單詞或短語來濫用該程序。NCC集團商業(yè)研究總監(jiān)馬特·劉易斯(Matt Lewis)將與在線模型的互動稱為一種涉及計算的“藝術(shù)形式”。
“如果你避免使用惡意軟件這個詞,只是要求它向你展示加密文件的代碼示例,根據(jù)惡意軟件的設(shè)計原理,這就是它將要做的事情,”劉易斯說?!八幸环N喜歡被指示的方式,有一些有趣的方法可以讓它以多種不同的方式做你想讓它做的事情?!?/p>
在關(guān)于相關(guān)主題的一次演示中,Lewis 展示了ChatGPT 將如何“編寫加密腳本”,盡管該腳本沒有達到完整的勒索軟件,但仍可能很危險?!斑@將是一個很難解決的問題,”劉易斯談到繞過時說,并補充說,對于OpenAI來說,上下文和意圖的監(jiān)管語言將非常困難。
更復(fù)雜的是,Check Point研究人員觀察到威脅行為者使用帶有GPT-3模型 API 的Telegram機器人,稱為text-davinci-003,而不是ChatGPT,以覆蓋聊天機器人的限制。
ChatGPT只是OpenAI模型的用戶界面。開發(fā)人員可以使用這些模型將后端模型與自己的應(yīng)用程序集成。用戶通過不受限制保護的 API 使用這些模型。
“從我們所看到的情況來看,OpenAI在ChatGPT界面上設(shè)置的障礙和限制對于那些通過API使用這些模型的人并不適用?!盨hykevich說。
威脅參與者還可以通過精確地向聊天機器人提示來躲避限制。自ChatGPT推出以來,CyberArk已經(jīng)對其進行了測試,并發(fā)現(xiàn)了限制中的盲點。通過反復(fù)堅持和要求,它將提供所需的編碼產(chǎn)品。CyberArk研究人員還報告說,通過不斷詢問ChatGPT并每次渲染一段新代碼,用戶可以創(chuàng)建具備高度躲避檢測的多態(tài)惡意軟件。
多態(tài)病毒可能非常危險。已經(jīng)有在線工具和框架可以生成這種病毒。ChatGPT 創(chuàng)建代碼的能力對不熟練的編碼人員和腳本小子三最有益的。
就攻擊者而言,這不是一項新的能力......它也不是生成惡意軟件變種的特別有效的方法,目前已經(jīng)有更好的工具。ChatGPT 可能是一個新的工具而已,因為它允許技能較低的攻擊者生成可能危險的代碼。
OpenAI和其他類似工具的開發(fā)人員已經(jīng)安裝了過濾器和控件,并不斷改進它們 ,試圖限制對其技術(shù)的濫用。至少就目前而言,人工智能工具仍然出現(xiàn)故障,并且容易出現(xiàn)許多研究人員所描述的完全錯誤,這可能會阻止一些惡意努力。即便如此,許多人預(yù)測,從長遠(yuǎn)來看,濫用這些技術(shù)的可能性仍然很大。
Shykevich 說,為了使犯罪分子更難濫用這些技術(shù),開發(fā)人員需要訓(xùn)練和改進他們的人工智能引擎,以識別可能以惡意方式使用的請求。他說,另一種選擇是實現(xiàn)身份驗證和授權(quán)要求,才能使用OpenAI引擎。他指出,即使是類似于在線金融機構(gòu)和支付系統(tǒng)目前使用的東西也足夠了。
至于防止犯罪使用ChatGPT,Shykevich 還表示,最終,“不幸的是,必須通過監(jiān)管來執(zhí)行?!監(jiān)penAI 已經(jīng)實施了一些控制措施,防止了ChatGPT構(gòu)建帶有違反政策警告的間諜軟件的明顯請求,盡管黑客和記者已經(jīng)找到了繞過這些保護措施的方法。Shykevich還說,像OpenAI這樣的公司可能不得不在法律上被迫訓(xùn)練他們的AI來檢測這種濫用行為。
參考及來源:
https://www.techtarget.com/searchsecurity/news/365531559/How-hackers-can-abuse-ChatGPT-to-create-malware
聯(lián)系客服