[轉錄]AI必定成為設計/行銷/繪圖/美編業的標配
轉錄自FB生活中的城市
建議可以看FB 有各步驟參考教學圖
例:修動漫圖片的兔耳
https://imgur.com/a/WGyc78J
https://www.facebook.com/CodeInLife
如果你最近有在發囉 AI 繪圖,我可以告訴你 Stable Diffusion 未來必定成為設計/行銷/繪圖/美編業的標配
要用 Stable Diffusion,硬體部分官方沒有建議的最低需求,但個人認為至少要有以下規格比較好:
作業系統:Windows 10以上
記憶體:16G以上
顯示卡記憶體:12G以上
Nvidia >>>> AMD
入門建議 RTX 3060,現在一張二手價大約 6000元,便宜經濟實惠;要出大圖可以選有 24G 記憶體的二手 RTX 3090,現在一張約兩萬出頭。
安裝過程
(1) 安裝Git
(2) Git下載Stable Diffusion WebUI:https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
(3) 安裝Python 3.10.6
(4) 啟動SD WebUI
(4-1) 開啟cmd,進到專案目錄後執行「webui-user.bat」
(4-2) 執行成功就會看到URL的資訊
(4-3) 保留終端機開啟,打開瀏覽器進入「http://127.0.0.1:7860」
一定要會的技能:
(1) 文生圖:
輸入 Prompt 就可以生成圖片,有正向也有負向提詞。
(2) 圖生圖
可以將上傳後的圖片加工、調整、合成或局部繪製,可以幫圖片中的人物換場景、髮型、背景或將畫壞的部分修正。
有非常多參數可以調整,包含算圖的取樣方式、輸出圖片尺寸、輸出圖片與 Prompt 的匹配程度,都會影響繪圖效果
(3) 多種預訓練模型可以選擇:
除了SD預設的模型,網路上還有許多其他創作者訓練的模型,每個模型擅長的風格不同,可以在Civitai和Huggingface自行下載安裝
A. https://huggingface.co/
B. https://civitai.com/
(4) 各種模型輔助微調效果:
由預訓練模型生成圖片通常不會一次到位,所以還有非常多模型輔助在預訓練模型的產出結果上微調,像是人物的動作、背景、光影、色調等等,來達到理想的效果
(5) 自訂圖片的風格:
如果你想繪製的風格已經有一系列圖片可以參考,可以使用 Textual Inversion,從這些圖片中學習風格後套用在指定物件,或是用 Hypernetwork、LoRA 直接套用喜歡的風格
(6) 自訂圖片的構圖:
ControlNet是一種神經網絡模型,主要用來控制構圖,例如人物動作、場景,也有非常多模型可以使用,Openpose、canny、scribe幾乎是AI繪圖師必備工具
A. Openpose、3D openpose:可以自行指定人物的骨架來調整動作,或是從圖片解析出的人物的骨架圖
B. 手部經常崩壞的問題大多也能透過ControlNet的模型解決,例如可以用Canny先人工繪製線稿再重繪手部
C. Muti-ControlNet:可以使用多個controlnet模型來調整構圖,例如可以下載辨識場景配置的模組,加上人物動作、手勢的模組
(7) 生成自己的模型:
A. 融合模型:可將至多三個模型融合,產生獨特風格的預訓練模型
B. 自訓練模型:準備好訓練用的圖片資料也可以訓練自己的模型,包含Textual Inversion、Hypernetwork、LoRA、DreamBooth
(8) 製作動畫:可以透過 gif2gif 或 mov2mov,直接轉 GIF 圖片或影片,另一種方式是用Multi frame render 將要製作成影片的每一幀圖片重繪後輸出成動畫影片
--
好文感謝
異世界必定成為人類解決人口問題的標配。理由:不~用
方式:1.卡車轉生 2.過勞轉生 3.御宅轉生 4.捅肚轉生5…
老黃發大財
葉
05/27 02:07
轉這甚麼業配廢文...要教學沒教學 原因 立論啥毛都沒有
46
[瑟瑟] 看色圖不求人Part2 AI生成色圖全教學古拉鎮樓 (從Discord搬運 非本人生成) Part 1 在這 不重要 過時了 這篇將包含所有你生成色圖需要的資訊 1. 使用者界面 Stable Diffusion Webui34
[閒聊] 驚!看色圖不求人 AI是否也能畫色圖?雖然下了很農場的標題 但這一篇認真的研究論文 大家或許以為AI跟色圖很遙遠 但事實真的是這樣嗎 在一年前可能沒有錯 但經過最近的突飛猛進 故事已經進入了新的轉捩點29
[AI] 如何訓練LoRA? 猴子都學得會的手把手教學!先附上預覽圖,幼妲貼貼: 網頁好讀版: 前言都是一些廢話,如果只是想知道如何訓練LoRA,可以直接往下跳至分隔線。29
[討論] 手機跑AI繪圖 Stable DiffusionAI繪圖軟體,最近比較熱門的是Stable Diffusion,它的好處為能在自己的電腦跑,而不 用依賴雲端服務,硬體到位想做什麼都可以。 這時候不禁想到,手機是否也有跑AI繪圖模型的辦法?畢竟都有人用樹莓派跑了 最近有開發者自行移植Stable Diffusion到iOS平台,蘋果使用者可以直接下載APP來玩, 配合最新iPhone的性能,幾分鐘就能出圖,該APP稱之為Draw Things。19
Re: [閒聊] Ai 快要可以做動畫了?剛剛看到版友推這個 如果我理解無誤 代表只要給它剪影動畫 還有一個認識角色的模型 就可以生成動畫 如果效果再穩定一點9
Re: [閒聊] 所以AI應用到繪圖領域,爭議怎麼這麼大棋譜沒有版權,圖畫有 AI生圖的版權糾紛很難處理 而且這次stable diffusion其中的waifu模型,或是NovelAI 都使用了圖庫danbooru 包含大量非正式授權圖片,網站本身已有人幫圖片上標籤省去超大量人力10
Re: [問卦]有了AI繪圖 還要追+9的IG嗎?看原文底下留言跟一些其他篇的留言,都會有人說AI繪圖的太過韓國臉,那是因為PO圖的可能菜鳥或剛好喜歡這類風格的。 AI繪圖現在主流是Stable Diffusion,三次元的主模型大都是偏韓臉,但其實可以靠次模型LORA這類變成其他風格。 但即使不靠LORA,光指令輸入國籍、種族、混血、清純、可愛、蘿莉、熟女就能有很大變化了。 甚至是畫三次元時,也能輸入一些漫畫遊戲名作來影響風格 (但還是會被你的主模型影響)5
[閒聊] 反魔法屏障 NO-AI 浮水印工具簡介: 部分AI繪圖工具會讓生成的圖片加上一個隱形的浮水印,避免被AI模型二次訓練, 過去有人提議用這個辨識是否是AI生成的圖,但破解方法太多了。 (也不是所有AI軟體都會加上,甚至能關掉這樣的功能,也還是防堵不了描AI圖之類的)2
[AI] AI繪圖 我推if晚安~小弟我是新入詠唱學院的學徒啦 首先感謝板上cybermeow大大提供的模型 不過可能我操作有誤之類的,所以跟我現有慣用的checkpoint不能很好的配合,直接用模型來產圖又原廠風格太重,稍微失去了點同人的感覺。 只好自己用神秘比例烘焙一個帶了VAE的checkpoint來產圖 接下來只要先用ControlNet告訴AI我要這樣的三個人抱在一起的構圖,然後就開始卡恰:X
[學習] 付費-台北-5/27 AI生圖詠唱術自己畫小模想嘗試AI生圖,發現別人都畫出美圖,自己卻都算出怪物? 短短數月間,Midjourney與Stable Diffusion等AI繪圖工具已經幫助許多創作者在短時間內 製作出高品質的圖像,不僅成為美術設計領域中不可或缺的工具之一,也是許多商務工作亟 欲掌握的新科技。 但AI繪圖也不是每發必中,除了資料庫的基礎外,更重要的是關鍵字的選擇,以及所組成的
57
[閒聊] lowcostcosplay 膽大黨 綾瀨桃51
[毒物] 書名太長 簡稱轉蛋和等級9999 動畫化48
[問題] 赤坂有達成在 VT 直播上說的諾言嗎?75
[毒物] 已經……不想再工作了43
[閒聊] 台灣版的蒸氣龐克作品會怎麼演?41
[閒聊] 有長髮剪短髮反而變好看的角色嗎?39
[閒聊] 金田一說蕃茄不是水果是蔬菜真假?35
[情報] 五等分的新娘新作《春夏秋冬》 1月發售76
[鳴潮] 椿還是愛我的34
[閒聊] 開後宮不被分屍的關鍵是什麼?34
[閒聊] 你妄想過什麼IP和玩法的結合?32
[補番] 死亡筆記本 還我L32
[情報] 雨夜之月 動畫化決定30
Re: [閒聊] 看了中國毒物反而看不下日本毒物46
[GKMS] 十王星南 實裝直前SP生放30
[地錯] 「一心憧憬」算不算極度op技能?29
Re: [毒物] 已經……不想再工作了34
[閒聊] 任天堂鬧鐘 Alarmo 一週使用心得26
[閒聊] 吸血鬼倖存者類型遊戲24
[閒聊] 小紅帽恰恰原作不會變身喔?23
[閒聊] 過世的話收藏會想怎麼處理?21
[holo] 佩可拉談公司方針改變的影響18
[閒聊] 現在入手PS5要買哪種20
[妮姬] 新作ASMR動画「その唇に毒があっても」35
[問題] 為什麼GPT對動漫遊戲的問題錯誤率極高?19
[閒聊] 岸田メル 蘿樂娜19
[飄移] 跑跑卡丁車:感謝長期以來支持我們的19
[情報]動畫瘋系統維護公告11/17凌晨00:30-08:3019
Re: [妮姬] 繪師投票 這次要脱衣服的是奧斯華40
[棕色2]開發者筆記,1.5週年前瞻大奶