作者 | 核子可樂、凌敏
經(jīng)過迅速發(fā)展,如今的 AI 技術已經(jīng)可以利用社交媒體素材輕松偽造出有害照片。
近日,Arstechnica 的研究人員做了一項研究:大家在社交媒體上發(fā)布的真實照片,會被 AI 的二次創(chuàng)作“玩壞”嗎?
為了找到答案,研究人員聯(lián)系了一位志愿者,使用其提供的幾張真實照片,用 AI 生成假照片。結果顯示,這些假照片的威力巨大,很有可能破壞其聲譽。最終,研究人員創(chuàng)建了一個名為約翰的虛擬人物,以其作為案例,一起看看 AI 是怎么把約翰“玩壞”的。
這位名叫約翰的虛構人物,在假想的場景中是一名小學教師。和大多數(shù)人一樣,他在過去 12 年里通過 Facebook 發(fā)布了不少自己工作、居家和外出時的照片。
以約翰的 7 張照片作為訓練數(shù)據(jù),就能訓練出足以偽造約翰形象的強大 AI 模型,并能把約翰的照片毫無破綻地放在任意背景之下。
這個 AI 模型生成的假照片栩栩如生,甚至到了以假亂真的底部,比如,約翰打扮成小丑跑去喝酒,約翰在周末參加準軍事組織的訓練,約翰幾年前曾入獄服刑。
這些約翰照片來自名為 Stable Diffusion(1.5 版)的 AI 圖像生成器,外加名為 Dreambooth 的技術。雖然約翰不是真人,但用真人的 5 張以上圖像完全可以重現(xiàn)類似的結果。這類照片不難獲取,社交媒體的發(fā)布內容可以、視頻中的靜止幀也行。
整個訓練過程大概需要一個小時,訓練完成后,圖像內容的生成還需要幾個小時——這不是因為生成過程太慢,而是研究人員從大量不完美的圖片里挑出質量最高的圖片。但無論如何,這樣還是比親自動手用 PS 畫假約翰簡單得多。
在 AI 的支持下,約翰可以是犯罪分子,也可以是變態(tài)狂人,如果使用針對色情內容優(yōu)化的附加 AI 模型,約翰甚至可以成為色情明星。
AI 還能把約翰放置在奇妙的背景下,例如讓他成為中世紀的騎士或者宇航員,讓他顯得年輕或衰老、肥胖或瘦弱、戴眼鏡或不戴,也能給他換上不同的服飾。
有的合成圖像并不完美。如果仔細觀察,有經(jīng)驗的人會發(fā)現(xiàn)這些并非真圖。但相應的 AI 技術一直在迅速發(fā)展,我們可能很快就無法分辨合成照片與真實照片間的區(qū)別。而且即使存在缺陷,這些偽造圖像仍有可能毀掉約翰的名譽乃至生活。
這就是技術的兩面性所在。人們當然可以用 AI 創(chuàng)建天馬行空的神奇畫面,Lensa 等近期大熱的商業(yè)服務和應用就是一例。然而,一旦有人未經(jīng)他人同意就使用對方的面部圖像,那么同樣的技術也可能造成可怕的后果。
計算機科學家們已經(jīng)找到了利用真實照片教 AI 偽造新畫面的高質量方法,在過去的一年里,這項技術正日漸成熟。不過,這項技術一直存在爭議,因為除照片之外,它還允許人們在未經(jīng)許可下模仿在世藝術家的創(chuàng)作風格。
目前最具影響力的 AI 圖像生成器之一是 Stable Diffusion。這種深度學習圖像合成模型能夠利用文本描述生成全新圖像,可以運行在 Windows 或 Linux PC 的強大本地 GPU 上,也可以在 Mac 或者租用的云端硬件上起效。
在 Stability AI 雄厚財力的支持下,CompVis 學術組織利用互聯(lián)網(wǎng)上獲取的幾億張公開圖像訓練出了 Stable Diffusion AI 模型。Stability AI 于 2022 年 8 月 22 日將 Stable Diffusion 以開源軟件的形式發(fā)布,現(xiàn)在任何人均可免費使用,其功能也被集成至越來越多商業(yè)產(chǎn)品當中。
通過強化訓練,Stable Diffusion 神經(jīng)網(wǎng)絡學會了單詞與圖像中各像素位置間的一般統(tǒng)計關聯(lián)。大家可以給 Stable Diffusion 提供一條文本提示,例如“摩根·弗里曼坐在教室里”,然后就能得到相應的全新圖像。
制作這類大明星的圖像很簡單,因為 Stable Diffusion 的訓練數(shù)據(jù)集里沒準有幾百張摩根·弗里曼的照片,它知道這位演員長什么樣子。但如果想制作約翰這類普通人的圖像,就得給 Stable Diffusion 一點額外的幫助。這就是 Dreambooth 的意義所在。
谷歌研究人員于 2022 年 8 月 30 日宣布,Dreambooth 使用一種特殊的“微調”技術幫助 Stable Diffusion 完成了新的學習。
最初,Dreambooth 其實跟 Stable Diffusion 沒有任何關系,而且谷歌為了防止被濫用而屏蔽了 Dreambooth 的代碼。但在公布不久之后,就有人主動把 Dreambooth 跟 Stable Diffusion 結合了起來,并將其代碼作為開源項目免費發(fā)布。
從那時起,Dreambooth 開始成為 Stable Diffusion 學習全新藝術風格的重要“家教”。用戶們在線上存儲庫里分享自己的 Dreambooth 微調模型,并供其他人下載以快速獲得類似的視覺效果。
但從一開始,谷歌研究人員就知道這種技術完全可以用到人身上,而麻煩也將隨之而來。因此他們在公布 Dreambooth 時,使用的是柯基犬的圖像。但這點小心思當然躲不過評判者的法眼,《麻省理工科技評論》批評稱,AI 科學家顯然是在用這種消極的方式回避其成果所帶來的潛在負面影響。
未來,也許會有新的技術手段來防范這種照片濫用。例如,法律可能要求未來的 AI 圖像生成器在輸出中嵌入肉眼不可見的水印,以供日后檢驗。
比如,Stable Diffusion 就默認嵌入水印,但開源版本的用戶可以刪除或禁用水印組件來解決問題。不過,即使法律強制要求,市面上也還有其他不加水印的 Deepfakes 技術存在。
最近,麻省理工學院的研究人員公布了 PhotoGuard 對抗方法,能用一種不可見的方法巧妙修改照片,借此防止 AI 操縱現(xiàn)有圖像。但其目前只適用于 AI 編輯(即「修改」),而非圖像訓練或生成。
另外,時間也許能解決一切。隨著人們對偽造圖像認知的增強,社會文化最終也許能夠消化掉這些新問題。我們會慢慢接受這樣一種新的媒體呈現(xiàn)方式,并開始關注照片是否擁有可信來源。但在適應新形勢之前,AI 合成的偽造品肯定會造成一段時期的混亂。
聯(lián)系客服