不久前,基于自然語言處理技術的最新人工智能研究產品 ChatGPT 面世,給 AI 領域帶來了巨大沖擊。ChatGPT 不僅可以回答簡單的問題,還可以處理復雜的任務,如撰寫文章材料、視頻腳本、電子郵件、會議紀要,甚至是文本翻譯和程序代碼等。讓人震驚的是,它還可以根據聊天上下文進行互動,嘗試理解提問者的問題,并給出人性化的回答,而不是僅僅提供一個標準答案。由于這一優(yōu)勢,ChatGPT 迅速在社交媒體走紅,也受到各大媒體的廣泛關注。
據媒體報道,短短 5 天內,ChatGPT 的注冊用戶就超過了 100 萬,隨后又在兩個月后破億。要知道從 0 到 100 萬用戶,Twitter 歷時 2 年,F(xiàn)acebook 也用了 10 個月。眼下 ChatGPT 無疑是互聯(lián)網領域增長速度最快的產品之一,展現(xiàn)出巨大的潛力和優(yōu)勢。ChatGPT 為什么能夠擁有如此大的魔力呢?接下來,讓我們一起揭開 ChatGPT 的神秘面紗。
ChatGPT 的前世今生
ChatGPT 是一款基于 GPT 自然語言處理模型(生成式預訓練注意力機制模型)研發(fā)的產品,由美國“開放人工智能研究中心”公司(以下簡稱 OpenAI)推出,其背后有著一段充滿挑戰(zhàn)和機遇的人機對抗歷史。
早在 20 世紀 50 年代,計算機科學家就開始嘗試通過編寫程序來模擬人類思維和智能。然而,由于當時的計算機硬件和算法限制,人工智能發(fā)展一直停滯不前。直到 20 世紀 90 年代, IBM 公司的“深藍”計算機與世界象棋冠軍卡斯帕羅夫進行了一場人機大戰(zhàn),并最終以兩勝、三平、一負的成績戰(zhàn)勝了卡斯帕羅夫。這場歷史性比賽被視為人工智能技術的重大突破,開啟了計算機與人類智力競賽的新篇章。隨著時間推移,人工智能技術不斷演進,2017 年 5 月,AlphaGo 以絕對優(yōu)勢完勝當時世界排名第一的圍棋選手柯潔,再次引發(fā)了人工智能的熱潮。雖然“深藍”和 AlphaGo 在人機博弈領域取得了驚人的成就,但其應用范圍相對較窄,僅限于解決特定領域的問題。如今,ChatGPT 卻能夠自動生成類似于人類的語言模型,使人與機器的交互更加自然流暢,這也決定了ChatGPT 具有更廣泛的應用場景和更強的實用性,為人們的日常生活、工作帶來更多便利。
早期的聊天機器人只能簡單回答預設問題,無法進行真正的對話。但現(xiàn)在ChatGPT 顯然已具備了個性化的回答能力,這是因為它使用了深層自然語言神經網絡模型,并通過大量的語言數據訓練,自動學習語言規(guī)律和特征。因此,它能夠識別和理解自然語言中的詞匯、語法、語義等要素,生成類似于人類的自然語言文本,實現(xiàn)與人類的交互。
ChatGPT 強大的功能可以使其提高語言交互效率,并應用于政企辦公、智慧家庭、客服機器人、翻譯、營銷、游戲、社交、教育、法律咨詢等多個領域,幫助解決語言交互問題,提高工作效率。此外,ChatGPT 的語言編寫能力還可以應用于編寫和調試計算機程序、文學創(chuàng)作、政府文書編撰等。比如在醫(yī)療行業(yè),ChatGPI 可以根據患者的癥狀進行診斷,給出治療建議,為醫(yī)生提供更準確的指導,在金融領域, ChatGPT 可以根據市場情況進行分析和預測,幫助投資者做出更優(yōu)的決策。目前,許多國內公司正在研發(fā)類似 ChatGPT 的產品,其中包括阿里巴巴公司的“通義”大模型、百度公司的“文心一言”、華為公司的“盤古”大模型等。
在 ChatGPT 熱度不斷狂飆的同時,其強大功能帶來的安全和隱私風險也不容小覷,其中最明顯的就是與深度偽造技術的結合。深度偽造技術可以輕松生成逼真的虛假內容,如文本、音頻、視頻等,甚至可以偽造高度逼真的政府文件,在互聯(lián)網上制造誤導和混亂。今年2月,網絡上出現(xiàn)了一條關于某市政府將于 3月1日取消限行的“新聞稿”,后來被證實是不實信息。這條消息源于某小區(qū)業(yè)主群內的一次玩笑,一位業(yè)主使用 ChatGPT 編寫了該消息,并在群內分享,許多業(yè)主看到后紛紛截圖并轉發(fā),最終導致了不實信息的傳播。如果不法分子將深度偽造技術與 ChatGPT 相結合,則可能會帶來更大的危險,虛假信息的泛濫必將導致政治、經濟、社會等多個領域的震蕩。
與此同時,由于 ChatGPT 部署在國外,它所使用的訓練數據集涵蓋了大量“西方意識形態(tài)”數據,這可能導致模型的輸出結果具有歧視性、攻擊性和不當內容等。例如,在回答“俄烏問題”上,ChatGPT 表達出極端的“西方意識形態(tài)”色彩,嚴重影響公眾判斷,這也需要引起我們的警惕。
此外,由于 ChatGPT 具有自主學習和生成能力,很有可能通過學習用戶輸入的信息引導用戶輸入更多敏感信息,以進一步提高其對敏感信息的學習和應用能力。例如,亞馬遜公司律師曾警告員工不要與 ChatGPT 分享“任何亞馬遜的機密信息”,因為輸入的信息可能會被用作 ChatGPT 的訓練數據,進而影響到亞馬遜的商業(yè)機密與核心競爭力。因此,對于 ChatGPT 的安全保密風險,我們需要給予足夠的重視和關注。
ChatGPT 的風險隱患
作為一項新興的數字技術,人工智能正在以其強勁的力量影響世界。在人們對其產生好奇、興奮或擔憂、抵觸等情緒時,如何應對人工智能帶來的風險,警惕相關失泄密隱患亦顯得尤為重要。
1. 網絡攻擊風險。ChatGPT 強大的編程功能,可將網絡攻擊的難度降低到一個“新手”就可以操控的程度。目前已有證據表明,不少網絡攻擊者正使用ChatGPT 開發(fā)攻擊工具。一是使用 ChatGPT 創(chuàng)建新的木馬,攻擊者只需要簡要地描述其期望的功能,如將所有密碼保存在 X 文件中,并發(fā)送到 Y 服務器上,就可以通過 ChatGPT 實現(xiàn)信息竊取,而不需要任何編程技能。二是使用ChatGPT 暴力破解數據庫,根據已公開的用戶名和密碼組合進行撞庫攻擊,竊取數據庫中的信息。三是利用 ChatGPT 編寫網絡釣魚郵件,因 ChatGPT 擅長模仿人類思維,編寫的網絡釣魚郵件鮮有拼寫錯誤或奇怪的格式,從而很容易躲過網絡釣魚郵件檢測,并使得生成的網絡釣魚郵件具有強烈的欺騙性。
2.數據泄密風險。在高度智能化、自動化的應用場景中,ChatGPT 在數據獲取、處理、結果展示等環(huán)節(jié)都存在重大的數據安全風險。一是數據獲取階段。用戶在使用 ChatGPT 時,可能會輸入自己或他人的信息數據,從而導致隱私泄露。如果員工使用 ChatGPT 輸入各類工作數據,就可能導致公司敏感信息泄露。而一旦輸入涉及國家秘密或敏感內容的信息,則無疑會導致泄密。二是數據處理階段。ChatGPT 會將用戶輸入、交互的數據用于后續(xù)持續(xù)的迭代訓練,這就導致這些信息很可能被其他用戶獲取,從而構成數據非授權共享,進而出現(xiàn)數據泄密問題。
3.知識產權風險。隨著 ChatGPT 使用者的增加,人文及學術創(chuàng)作抄襲代筆亂象或將增多,對知識產權保護構成的挑戰(zhàn)也日益加劇。一是版權歸屬風險。今年 1 月,權威學術期刊《Science》《Nature》等宣布正在更新編輯規(guī)則,強調不能在作品中使用由 ChatGPT(或任何其他 AI 工具)生成的文本、數字、圖像或圖形。二是學術不端風險。如果學生在完成作業(yè)過程中,使用以 ChatGPT 為代表的 AI 工具,就會形成造假問題。巴黎政治大學于今年 1 月宣布,已向所有學生和教師發(fā)送電子郵件,要求其禁止使用 ChatGPT 等工具,旨在防止學術剽竊。
如何約束 ChatGPT 的潛在風險
科技界在不斷追求創(chuàng)新和發(fā)展的同時,安全風險也應成為國家、機構和個人關注的焦點。為此,中國科技部設立的國家新一代人工智能治理專業(yè)委員會早在2021 年就發(fā)布了《新一代人工智能倫理規(guī)范》,提出將倫理道德融人人工智能研發(fā)和應用的全生命周期。類似的規(guī)范和法律在歐洲、美國等地也已出臺,這表明人工智能的合規(guī)治理引起了各國的廣泛重視。今年 1 月,美國國家標準與技術研究院(NIST)發(fā)布了人工智能風險管理框架,為人工智能合規(guī)治理提供了可操作的路徑。
圍繞 ChatGPT 的使用,許多機構都制定了相關的規(guī)范性制度。一些公司如微軟、高盛、美銀、花旗、德銀等,已明確禁止員工向 ChatGPT 分享敏感數據,以避免數據泄露。OpenAI 公司首席技術官米拉·穆拉蒂也表示, ChatGPT 應該受到監(jiān)管,因為它可能被“危險分子”使用。
目前,全球各國都在制定規(guī)章制度以規(guī)范 ChatGPT 等 AI 產品的功能開發(fā)和場景應用,并出臺相應的法律法規(guī)確保它們的使用安全。這些規(guī)章制度應該具有前瞻性和約束性,以確保 ChatGPT 的迭代升級及相關應用場景都受到監(jiān)管,從而避免長遠的風險與負面影響。為了降低使用 ChatGPT 帶來的潛在風險,我們建議采取以下措施,并進一步完善監(jiān)管機制。
1.完善規(guī)范性制度和相關法律,明確 ChatGPT 及類似產品的使用范圍、安全保障和信息保護等規(guī)定。這些規(guī)定應包括 ChatGPT 等應用在使用過程中可能產生的法律責任,以及維護公共利益等內容,并規(guī)定違反使用規(guī)定的行為應承擔何種法律責任。同時,對 ChatGPT 及類似產品的開發(fā)、使用和運行進行監(jiān)督,對違規(guī)行為進行處罰,以最大程度地避免其可能帶來的負面影響。
2.建立完善的數據保護機制,包括數據加密、訪問控制和數據備份等,以確保數據的安全性和保密性。使用 ChatGPT 及類似產品時,需要建立用戶訪問控制機制,限制不必要的訪問和使用,以避免數據泄露和濫用。
3.提高保密教育與防范意識。一方面讓員工了解 ChatGPT 及類似產品自然語言生成模型的應用場景和風險,并提高其警惕性和自我保護能力;另一方面為員工提供正確使用 ChatGPT 等 AI 產品的培訓和指導,幫助他們在工作中合理運用這些技術,以保護個人信息和敏感數據的安全。同時對于國家秘密、商業(yè)機密等敏感信息,應禁止使用 ChatGPT 及類似產品進行處理。
文章轉載于《保密工作》雜志 2023 年 3 期
原創(chuàng)作者:黃偉慶
聯(lián)系客服