stable diffusion這款免費的AI作圖軟件可以保持人物姿勢,一鍵輕松給人物換臉,包括保持人物服裝換臉:
也可以保持人物姿勢和面部不變,一鍵更換衣服(見下圖):
題外話:請不要糾節(jié)于AI畫人物手指會出錯,這個問題是有辦法解決的(你自己訓練一個手部lora不就好了),本文不探討AI畫人物手指不好這個問題。
AI加快技術革新的步伐已經(jīng)來了,再不學習就要落后了。
注:4090是目前最快的消費級AI畫圖顯卡,如果你沒有顯卡,照樣可以使用stable-diffusion這款AI畫圖軟件。
不同顯卡的AI出圖速度,可以參考下面這篇文章:
https://post.m.smzdm.com/p/an384nn3/
說明:我一開始使用stable-diffusion也是利用中文插件,后來發(fā)現(xiàn),使用中文插件之后,看中文單詞不好理解更深入的功能,不是中文插件翻譯的不好,是直接用英文理解某些功能會更透徹,畢竟這個軟件是外國人編寫的。要想獲得進一步的提升,在stable diffusion的道路上走得更遠,個人建議還是使用英文版更好(或者兩臺電腦,一臺用中文插件,一臺用英文原版;或者中文使用一段時間后換回英文原版)。本教程使用英文版界面(我會用中文進行說明,保證閱讀本文暢通無阻),其實英文版界面和中文版沒差異的,反正按鈕都在同一個位置,無論是否使用中文插件,按鈕的位置都不會變化。
如果你沒有手動修改過Load from右邊的網(wǎng)址,就能看見下圖的界面。
重啟就能使用ControlNet了,如果重啟后沒有反應,就退出終端,然后重新運行下面的命令重新啟動stable-diffusion:
python3 launch.py --xformers
重啟后,可以發(fā)現(xiàn),種子那一欄下方,有個ControlNet 1.1.219的字樣(見下圖),代表ControlNet安裝成功了。
ControlNet如何設置呢?看下圖的1、2、3、4步,這是設置ControlNet的步驟,在3那里可以調(diào)節(jié)ControlNet的通道數(shù)量,通道數(shù)量在4那里調(diào)節(jié)。調(diào)好之后,重啟UI即可。
如果你將ControlNet的通道數(shù)量調(diào)成3個,就可以在圖生圖或者文生圖的界面看見3個通路(見下圖)。
點擊軟件最右側的Extensions, 然后點擊下面那一行的Install from URL按鈕,將openpose的網(wǎng)址貼進去下圖3的位置,然后點擊黃色的Install按鈕,重新啟動UI就能看見openpose了。
點擊OpenPose Editor就能打開openpose的界面了(見下圖):
openpose界面的使用方法見下圖,點擊下圖1的“OpenPose Editor”按鈕就能打開openpose界面,可以在下圖2這個方框手動調(diào)節(jié)人物姿勢。下面右下方部位有4個選項,分別有不同功能。
例如,你可以調(diào)成下圖的人物姿勢:
要使用openpose這個模塊,必須下載control_sd15_openpose.pth文件(下載地址請自行查找),并保存到stable-diffusion-webui-master/models/ControlNet目錄下。
先點擊“OpenPose Editor”按鈕,打開openpose界面:
第一步調(diào)節(jié)人物姿勢,第2步將姿勢發(fā)送到文生圖(或圖生圖):
然后在下圖的1位置輸入“正提示詞”,2的位置輸入“負提示詞”,3是開始AI畫圖的“Generate”按鈕(點3開始畫圖之前,先要設置controlnet)。
在對上去的第2張圖,將人物姿勢發(fā)送到“文生圖”后,就會在下圖1的位置出現(xiàn)一個人物姿勢。然后下面的enable打鉤,代表使用controlnet;下圖Preprocessor的位置“不選”(也就是填“none”),右側的模型選control_sd15_openpose,這些全部選完之后,點擊上圖3的“Generate”按鈕,就能按照下圖1的姿勢,生成類似的圖像(見下圖2)。
需要注意:AI每次生成的圖像(見上圖2的位置),不一定每次生成的圖像都和上圖1完全保持一樣的姿勢,AI也會有自己的算法(需要我們手動調(diào)節(jié)各種參數(shù),包括提示詞優(yōu)先還是controlnet姿勢優(yōu)先、正負提示詞等,或者一次讓AI生成十幾張圖像,從中挑選自己滿意的一張)。
如何生產(chǎn)類似下圖的,固定人物姿勢,換不同臉的照片呢?請看下文。
下圖是一張用stable diffusion生成的AI圖片:
將上面這張圖片拖到PNG Info窗口,就能看到下圖的界面:
怎么將這張圖片拖到PNG Info窗口呢?將圖片拖到下圖1的位置,然后點擊下圖2發(fā)送到“圖生圖”:
這時候,上面這張用stable diffusion生成的AI圖片的所有原始信息就會出現(xiàn)在“圖生圖”的界面里面了(見下圖),包括正負提示詞,lora,種子等信息都能看到(見下圖)。如何替換不同的lora來換臉呢?第一步將正提示詞包含的lora信息刪除(如果原圖有使用lora的話,將它刪除,刪除方法是在下圖1的位置尋找lora這個短語,看見lora那句話就刪掉)。將不同的lora添加進去的方法是點擊右側“Generate”黃色按鈕下方的紅色按鈕,然后點擊下圖3的位置就能使用不同的lora了。
注意:stable diffusion這個軟件剛裝好是沒有任何的lora模型的,你要在網(wǎng)上下載別人訓練好的lora模型(你也可以自己訓練lora模型),然后保存到stable diffusion目錄下的models/lora文件夾里面,然后點擊下圖3那一行的Refresh按鈕,才能看見你下載好的lora模型。
在上圖的界面往下拉,如果所有參數(shù)都設置好之后,點擊上圖的黃色的Generate按鈕,就能在下圖看見換臉后的照片了。參數(shù)怎么設置呢?首先,在下圖的“原圖”的位置,應該有一張你想要換臉的原圖,也就是剛才你在PNG Info界面發(fā)送過來的原圖,如果這里沒有圖片,就將那張原圖拉到下圖的“原圖”的位置上。下圖1位置的那個sampling method(也就是采樣方法)是可以自己調(diào)節(jié)的,請根據(jù)需要自行修改使用不同的采樣方法(不同的采樣方法出圖略有差異)。
再往下拉,下圖1位置是調(diào)節(jié)Denoising strength的地方,怎么調(diào)我剛才已經(jīng)說了。下圖2的“種子”,如果固定住它(也就是不改變,PNG Info發(fā)送過來是什么種子,就保持不變),就能保持和原圖比較一致,如果你調(diào)成-1,就會和原圖有一些差異。如果你搞不明白,下圖2的種子就先不要改變它。將原圖拖到下圖3的位置,這樣controlnet才能識別原圖的人物姿勢。下圖4的enable要打勾,這樣才打開并使用controlnet的功能。下圖5的Preprocessor選擇openpose_hand(也可以選其他的帶openpose的preprocessor),也就是保持人物姿勢特別是手部姿勢不動,下圖6的Model選擇control_sd15_openpose模型。下圖7可以調(diào)節(jié)成balanced平衡模式,或者提示詞優(yōu)先模式,或者controlnet優(yōu)先模式。根據(jù)需要選擇即可。
這些參數(shù)都選好之后,點擊黃色的Generate按鈕,一張換臉圖就產(chǎn)生了。不同的lora可以換成不同的臉。lora模型請自行下載。
全文完,謝謝觀看。
618種草大會~50000元現(xiàn)金狂撒!索尼a7m4,蘋果手機、耳機、平板、表等系列獎品讓你拿到手軟!立即去參與>>
作者聲明本文無利益相關,歡迎值友理性交流,和諧討論~
聯(lián)系客服