[樂游網導讀]Stable Diffusion是一個人工智能圖像生成工具,屬于非常強大的生成式ai,可以通過文生圖或者是圖生圖的方式進行自由的繪畫創作,而且效果比普通的畫師要好很多,如果你的電腦配置稍微好一點的話,可以做到1分鐘出圖,當然前提是需要訓練好模型,接下來小編會為大家介紹小白的使用教程,感興趣的親們趕緊來看看吧。
Stable Diffusion是一個人工智能圖像生成工具,屬于非常強大的生成式ai,可以通過文生圖或者是圖生圖的方式進行自由的繪畫創作,而且效果比普通的畫師要好很多,如果你的電腦配置稍微好一點的話,可以做到1分鐘出圖,當然前提是需要訓練好模型,接下來小編會為大家介紹小白的使用教程,感興趣的親們趕緊來看看吧。
stable diffusion2.0手機版app:點擊下載
Stable Diffusion怎么使用
首先打開
https://github.com/camenduru/stable-diffusion-webui-colab網站
這是運行在谷歌colab的,沒有顯卡也可以生成圖片,非常的奈斯
下拉選擇一個模型
選擇chilloutmix這個模型點擊stable運行它,其他的模型都可以試試
點擊連接等待一會
連接成功了里面要有GPU的,沒有的話點擊更改運行時類型,選擇GPU保存
然后點擊這個按鈕,開始運行
然后點擊這個按鈕,開始運行
看到出現鏈接地址就OK了,點擊下面的鏈接進入
進來的界面就是這樣子的,里面兩個框框是輸入關鍵詞的,正向關鍵詞就是需要AI算出來的畫面包含的元素,反向關鍵詞就是不希望出現的怪東西(你懂得),填入好信息后點擊Generate等待一會圖片就生成出來了。
StableDiffusion怎么喂圖
1.文生圖
在開始使用文生圖之前,有必要了解以下幾個參數的含義:
接下來我們來生成一張賽博朋克風格的貓咪圖片,配置以下參數后,點擊 "Generate" 即可:
Prompt:a cute cat, cyberpunk art, by Adam Marczyński, cyber steampunk 8 k 3 d, kerem beyit, very cute robot zen, beeple |Negative prompt:(deformed, distorted, disfigured:1.3), poorly drawn, bad anatomy, wrong anatomy, extra limb, missing limb, floating limbs, (mutated hands and fingers:1.4), disconnected limbs, mutation, mutated, ugly, disgusting, blurry, amputation, flowers, human, man, womanCFG scale:6.5Sampling method:Euler aSampling steps:26Seed:1791574510
注:提示詞(Prompt)越多,AI 繪圖結果會更加精準,另外,目前中文提示詞的效果不好,還得使用英文提示詞。
下載安裝后輸入自定義prompt,也就是任意你想生成的圖像內容,然后點擊生成就好了。如果不滿意,可以再次點擊,每次將隨機生成不同的圖片,總有一些你感興趣的。
3.圖生圖
眼尖的你可能發現了,上面截圖里左上角 Stable Diffusion checkpoint 的值怎么跟之前截圖里的不一樣?這是因為我換了一個模型文件,還記得前面提到那個將近 4 個 G 大小的模型文件(v1-5-pruned-emaonly.safetensors)嗎?那是 stable-diffusion-webui 的默認模型文件,用這個模型文件生成出來的圖片比較丑,因此我換了另一個模型文件。模型文件下載的網站幾個,比較出名的就是 civitai,這上面共享的都是別人訓練好的模型。
模型文件下載地址:
civitai:https://civitai.com/
根據你要生成的圖片風格(比如:動漫、風景),挑選合適的模型查看,前面那個文生圖的例子,使用的就是這個 Deliberate 模型,直接點擊 "Download Latest" 即可下載該模型文件。
注:模型文件有 2 種格式,分別是 .ckpt(Model PickleTensor) 和 .safetensors(Model SafeTensor),據說 .safetensors 更安全,這兩種格式 stable-diffusion-webui 都支持,隨意下載一種即可。
將下載好的模型文件放到 stable-diffusion-webui\models\Stable-diffusion 目錄下:
放置好模型文件之后,需要重啟一下 stable-diffusion-webui(執行 webui-user.bat)才能識別到。
這些模型文件一般會附帶一組效果圖,點擊任意一張,就可以看到生成該效果圖的一些參數配置:
把這些參數配置到 stable-diffusion-webui 中,點擊 "Generate" 就可以生成類似效果的圖片了。
注:因為 AI 繪圖帶有隨機性質,所以生成出來的圖片跟效果圖不一定完全一樣。
文生圖功能有很多東西可以發掘,你可以用它來生成世界上獨一無二的圖片,而要用好文生圖功能,提示詞(Prompt)是必須掌握的重中之重,它是有語法規則的,具體接著往下看。
3.TAG生成器
https://tag.muhou.net
關于如何構思prompt提示語,可以從如下幾個問題入手:
你想要一張照片,還是一幅畫(photo/painting)
你想要什么內容,比如:人物,動物,還是風景(person/animal/landscape)
需要什么樣的細節,比如:
環境,室內/室外/水下/太空(indoor/outdoor/underwater/in space)
視角,正面/側面/俯視(front/side/overhead)
背景,純色/星系/森林(solid color/nebula/forest)
打光,柔光/環境光/環形光/霓虹(soft/ambient/ring light/neon)
顏色調性,鮮活/暗黑/柔和(vibrant/dark/pastel)
需要怎樣的藝術風格,比如:3D渲染/電影海報/畢加索(3D render/movie poster/Picasso)
觀察者鏡頭選擇,比如:微距/長焦(macro/telephoto)
如何組織語言:
把想畫的內容和形式用只言片語一條一條列出來,而不是企圖用一條完整通順的話來描述
只言片語的順序很重要,越想強調的越放到前面
提示語涉及哪些修飾形容角度:
藝術(表現形式/媒體形式)
插畫(3D/各類風格/角色設計)
情緒(各種正面的/各種負面的)
審美特點(活力感/暗黑系/歷史感)
以上各角度可以混合使用
提示語還涉及哪些特殊詞組:
HDR, UHD, 64K
highly detailed
studio lighting
professional
trending on artstation
unreal engine
vivid colors
bokeh
high resolution scan
sketch/painting
stable diffusion 重點參數解析:
CFG(classifier free guidance),數字越大越貼近提示語的描述
step count,合適為佳,并非越大越好,需要測試
seed,初始隨機噪聲值,設定同一seed,可以復原已出圖片;注意某些seed值與特定提示語配合很好,更容易出效果
如何優化提示語權重
使用 ( ) 增強模型對特定詞語的關注,使用 [ ] 減弱其關注
多以使用多個 () 或 [],比如:((( )))、[[ ]] 等
也可以使用 (word:1.5)、(word:0.25) 的方式增強或減弱某個詞語的權重
如何混合兩個提示詞
提示編輯允許您開始對一張圖片進行采樣,但在中間切換到其他圖片。其基本語法為 [from:to:when]
比如:a [fantasy:cyberpunk:16] landscape,16步之前是 a fantasy landscape,16步之后是 a cyberpunk landscape
比如:a [mountain:lake:0.25],假定sampler有100步,則前25步是 a mountain,后75步是 a lake
補充信息
提示語長度,舊版的 stable diffusion 有效token長度只有75,簡單理解,只能支持70個左右的單詞數量,新版的移除了token長度限制,但總體而言,不宜用特別長的提示語
熱門評論
最新評論