Re: [問題] 描圖比較可惡還是Ai比較可惡?
※ 引述《Satoman (沙陀曼)》之銘言:
: → h0103661: 2024怎麼還有人雲ai是拼圖 10/17 19:04: → FoxWu930065: 原理就不是拼圖啊 還是你指的切是random crop 10/17 19:16: → protoss97: 原理不是拼圖 如果只是拼圖這種東西 各大廠就不會搞軍 10/17 19:18: → protoss97: 備競賽了 10/17 19:18: 我一直很好奇說AI不是拼圖的根據在那裡 ==
: 因為實際上目前的模型就是真的用圖片去拼出來的 ==
: 我舉個比較完整簡單的栗子 ==
: 我在看我的幸福婚約的時候,一直覺得後母這角色很○○。
: 查了一下沒人搞她的pony模型,所以自己做了一個來玩。
: 我先回去把自己知道她有出場的部分的圖片截下來,官網的人物介紹圖也抓下來,
: 然後開始處理,該去背的去背、該修圖的修圖。
: 下一步分類。
: 第一個資料夾我會先抓出輪廓清楚的全身圖或七分身圖。
: https://i.imgur.com/cW0HmCz.jpeg
: 對經常把日式ACG角色身體蘿莉化的pony底模非常重要。
: 第二個資料夾裝這個角色裝角色的大頭照。
: https://i.imgur.com/oZ2OcUP.jpeg
: 目的當然是就是讓AI知道這個人物的臉長怎樣用的。
: 第三個資料夾,角色的背影和側身的圖片。
: https://i.imgur.com/0kqE7YA.jpeg
: AI對於背面一直都比較不敏感,
: 沒有特別針對這背面訓練的話,有可能造成頭轉過來但是身體沒轉的貓頭鷹現象。
: 也可能會學不到角色背後的特色。
: 這個角色背後有個髮髻,加上這件和服背後的飾帶有特別的設計,
: 所以這些圖片必須額外分開來。
: 第四個資料夾,角色上半身和輪廓不是很清楚的圖片。
: https://i.imgur.com/jDJeLrZ.jpeg
: 這類的圖片數量一定最多,和其他圖片混在一起容易造成AI只訓練到上半身,
: 沒有訓練到下半身的情況,所以也得分類出來。
: 這個資料夾我沒注意到夾了一張穿另一件和服的圖片,
: 但是因為我打tag的時候本來就有區分出這件衣服,所以沒影響到訓練結果。
: 最後一個資料夾,一張穿上另一件和服的圖片。
: https://i.imgur.com/G6YNz1V.jpeg
: 這不是我的訓練目標,但是這張圖片我認為對訓練這個角色有正面助益。
: 所以我額外拿出來,準備將它當正則化用的圖片來處理。(本來另一張也是丟這邊)
: 之後打標,將我想訓練的目標標出來讓AI去拼。
: https://i.imgur.com/lHUAlsJ.jpeg
: 臉部的部分確認都有被加上"close-up"特寫的標籤,讓AI知道這只是特寫,
: 不要真的給我生出一堆大臉圖。
: 然後設定訓練權重。
: https://i.imgur.com/zw6L5tH.jpeg
: 其他的圖片只是給AI參考的,所以一輪只跑1次。
: 臉和上半身圖片最多,平均下來一輪各4次。
: (其實可以丟同一個資料夾,但是分開來比較好分類)
: 背面圖片約是上半身的一半,所以就一輪*2跑8次。
: 全身圖圖片最少,簡單估一下大概一輪15次應該夠了,
: 也不能再多不然AI只會給你一堆全身圖。
: 然後去睡覺,睡醒驗收成果,叫AI生一張側身的圖片讓我瞧瞧。
: https://i.imgur.com/NpeYEHE.png
: 很好,該學的都有學到,不該學的也沒混進去,一發入魂不用調整直接收工。
: 再舉兩個將圖片拼成模型的栗子。
: 這是我的86蕾娜模型的圖片。
: https://i.imgur.com/wq69nnB.png
: 這個模型能生出類似動畫23話感覺的圖片,
: 運氣好的話還還可以看到後面的鐵幕。
: 但是按照上面的流程是訓練不出能生出這張圖片的模型的。
: 因為實際上這個場景的圖片不多,
: 過於提高蕾娜站在花海圖片的訓練步數則是會造成過擬合,連帶影響其他生成結果。
: 那怎麼辦?我就讓AI去拼,方法說真的也不難。
: https://i.imgur.com/cF8v95c.jpeg
: 就把23話的純背景圖片截出來,放進訓練集裡面當令一個訓練目標給AI學。
: 在生成時輸入兩個概念同時叫AI生成,就能生出上面那種風格的圖片。
: 只是目前解析度好像沒辦法讓AI能認出彼岸花,所以看起來完全是另一種花就是了。
: 當然,如果我不輸入背景相關的提詞,這個蕾娜也不會動不動就被一堆紅色花朵包起來。: 如果我把提詞改一下,換成水仙花,衣服也換為藍色沒挑染的版本。
: 也能生成這種氛圍類似,但是結果不同的圖片。
: https://i.imgur.com/jfH4xZV.png
: 又或者像這個桔梗。
: https://i.imgur.com/ABzEnXs.png
: 我在做模型的時候想把能死魂蟲和桔梗本人一起練出來。
: 但是兩個概念沒區隔的話,要嘛死魂蟲打死生不出來,要嘛每張圖旁邊都有白色條狀物。: 那怎麼處理呢,一樣。
: 打標將死魂蟲用特別標註,
: 打上"sinidama"這個概念區分用的題詞,
: 以及影響生圖結果用,AI知道其含意的題詞"white dragon"。
: https://i.imgur.com/rkBt8nh.jpeg
: 最後同上,額外挑出特寫死魂蟲的圖片,
: 並且確認都有標上"no humans"這個提詞標籤,作為和桔梗本身的區分。
: https://i.imgur.com/Pi7uNI9.jpeg
: 這樣AI就能理解,當我打出"sinidama, white dragon"加上桔梗本人的提詞,
: 但是又沒有"no humans"時,它就應該生成一個有死魂蟲,又有桔梗本人的圖片。
: 結果就是這樣,勉強還行:
: https://i.imgur.com/TceOsvz.png
: 再舉一個拼圖的反例,這是別人的桔梗模型,
: https://i.imgur.com/0IVyDNA.jpeg
: 我就是因為覺得這模型用起來怪怪的所以自己又去搓了一個出來。
: 這模型產出的圖片乍看之下很正常,該有的都有,也很還原動畫的畫風,
: 不像我這樣犯賤,故意偷塞料把畫風破壞掉。
: 但因為我是以前每天下課準時收看犬夜叉的怪叔叔,
: 所以生了幾張圖就發現有點怪怪的。
: 這是這個模型的桔梗。
: https://i.imgur.com/7ysGB7K.jpeg
: 這是本來動畫的桔梗,來找找看哪裡不一樣。
: https://i.imgur.com/uyncmY4.jpeg
: 對,瀏海。
: 瀏海中間怎麼常常空出一塊?
: 如果你和我一樣,以前下課就是等著看犬夜叉的話,可能已經猜出答案了。
: 解答是:
: https://i.imgur.com/yaMHKnM.jpeg
: 對啊,珊瑚的瀏海就是長那個樣子不是嗎?
: 會造成這種結果的原因是這位作者在製作模型時採用流水自動化作業,
: 他的圖片是用AI辨認角色自動截圖下來的,並且在自動打標後就丟給AI進行訓練。
: 由於珊瑚和桔梗本來就長得有點像,AI肯定會將兩個人搞混,
: 珊瑚的登場機會遠高於桔梗,所以他的訓練集裡肯定包含了大量珊瑚的圖片。
: 再加上珊瑚和桔梗兩者的瀏海給AI辨認自動打標時,
: 一定都會被標上"blunt bangs"齊瀏海和"hime cut"公主頭這兩個標籤,
: 所以也無法被提詞區隔。
: 最終這個同時包含桔梗和珊瑚的訓練集,結果就造成了AI將這兩個角色拼成了同一個:: 一個有著珊瑚瀏海的桔梗。
: 再一個栗子。
: https://i.imgur.com/HuuT5RA.png
: 戰隊黑禍源死死美,如果有看過愛在世界征服後,
: 那應該知道這張圖片的概念不存在於動畫之中。
: 動畫只有兩幕主角的妄想,而且是戴著頭盔的。
: 而這張圖的生成原理是:
: https://i.imgur.com/wlR0pmu.jpeg
: 我把其他兩個女性戰隊成員的頭砍掉氇,然後把衣服染成黑色。
: 最後打標加上"faceless",讓AI能將衣服與塗黑的砍頭標示分開。
: 這樣AI就能幫我拼出一個穿著戰隊服的死死美。
: 其他的栗子像是:
: https://i.imgur.com/tquAgKY.png
: 氣噗噗的鞘姬。
: https://i.imgur.com/u0DSFkS.png
: 穿著第一季衣服,但是髮型是劇場版版本的菲特。
: 這些都是我用類似手法,用訓練權重與提詞區分概念,之後生圖時讓AI去拼的結果。
: 還有另一種就是更為確實的拼圖,像是用controlnet換臉。
: 當然,換臉這個行為這東西比起AI本身又是更惡劣的勾當,進警察局也是活該的那種。: 我就用比較沒爭議的歷史人物做個示範:
: 像是阿希和阿史
: https://i.imgur.com/7TBSGjc.jpeg
: 或阿史+阿希
: https://i.imgur.com/SGiDHHd.jpeg
: 直接實現法西斯主義和馬克斯主義的殊途同歸。
: 同樣的原理,叫AI拼圖換衣服、換動作、換背景、換表情都做得到。
: 之前巴哈換頭活俠傳就是用這個方法搞出來的。
: 當然,我知道我講那麼多,可能還是有人會想用論文砸我臉說「AI不是在拼圖」。
: 真的要這樣我也尊重。
: 但是我也必須講,實務上目前的AI產圖模型就是用圖片拼出來的,
: 既然模型是用圖片拼的,那用那個模型生出來的圖片算不算拼圖呢?
: 我覺得算,起碼我玩AI也玩兩年了。
: 這期間我一直覺得自己在搞模型的時候是讓AI認知概念,
: 而生圖時則是想辦法讓AI把它認知的概念拼起來。
: 大概就醬。
既然是AI的問題
那我們來問一下也是AI的ChatGPT 好了
訓練 AI 模型產生圖畫和拼圖的概念有相似之處,但也有一些關鍵的不同點。
相似之處在於:
1. 組合與重構:拼圖是將不同的部分組合在一起,形成一個完整的圖像。AI 模型(如生成圖像的模型)則是根據其學習到的特徵,將不同元素組合或生成,來創造一個新圖像。
2. 分解與學習:AI 模型會將圖片分解為不同的特徵,並學習如何將這些特徵組合起來,就像在拼圖中識別形狀和顏色來找到合適的拼塊位置。
不同之處在於:
1. 過程自動化:拼圖通常由人腦主導,通過觀察和推理來找出每個拼塊的位置。而 AI 則是通過大量數據的訓練,學習圖像的模式和規律,並可以自動生成圖像,而不是手動拼接。
2. 創造性與模仿:拼圖是把已知的圖像拆解再重組,結果是原圖。而 AI 創作圖像則涉及從已知資料中學習,然後生成全新的、之前不存在的圖像。
總結來說,兩者的基礎思想有類似的組合和學習過程,但 AI 訓練在本質上更自動化和創造性。
大概是醬
-----
Sent from JPTT on my iPhone
--
3
首PoRT 描圖 就抄你的骨架~但其他地方完全不一樣 而且是人畫的 因此被炎上的不少爆
→ h0103661: 2024怎麼還有人雲ai是拼圖 10/17 19:04 → FoxWu930065: 原理就不是拼圖啊 還是你指的切是random crop 10/17 19:16 → protoss97: 原理不是拼圖 如果只是拼圖這種東西 各大廠就不會搞軍 10/17 19:18 → protoss97: 備競賽了 10/17 19:18 我一直很好奇說AI不是拼圖的根據在那裡 ==5
問題在於D你不能說AI不按照人類的方法理解就是"不充分理解",人類在畫一個蘋果的時候也是先找腦中的形狀,然後光影,以及對應的顏色,最後把這些部份拼起來,這是人腦的理解方式。 但對於AI來說,它的理解方式就是這一坨向量就是蘋果,這一坨向量本身就包含了足以讓它作出的畫產生光影、形狀等。這就是它的認知,它不在乎向量的源頭,只在乎如何生成一個逐步降噪的過程,讓它長得像是一個蘋果。如果它畫得不好,那是它對於如何降噪理解的不夠好,而不是因為它的思考方式不像人類。 所以我不贊同是拼圖,它的確有認知邊界,但使用認知邊界內的東西作畫就是拼圖嗎? 就像如果你這輩子都只看過紅心的西瓜,突然叫你畫一個小玉西瓜,那你畫出來的黃色一定不會是小玉西瓜的黃色,但也不會有人說你的黃素色是從鳳梨拼圖過來的 -----7
AI生圖只是數據整理的方式是向量方式儲存的 因為前身NLP自然語言模型的處理就是儲存向量 不是說訓練圖或產生的圖是向量圖… 你自己都提到噪聲了 AI圖就是在訓練過程中把清晰的圖依各像素點12
首先 先定義"拼圖" 一般人認知中的"拼圖" : 將輸入的圖片剪碎後拼成一張圖 所以說你輸出的圖片必然會可以在輸入圖片中找到相對應的區域 而剪碎的區域至少要有一定大小19
先讓我們假設一下 阿布德爾是一個沒看過青蛙(活的、死的、繪畫、雕塑等都沒有)的人,請問他畫得出青蛙的樣子嗎? 沒辦法對吧? 現在我們給阿布德爾一張青蛙的照片,然後請他畫青蛙。他大概就只能畫出同樣角度、同樣品種的青蛙。
71
Re: [閒聊] AI畫圖是不是大數據拼圖?只要是深度學習AI,原理都是把圖轉換成矩陣,通過神經網路作back propogation學習特 徵,在整個模型的運算過程中只有矩陣,不存在任何圖像拼接的過程 你認為圖很像,是因為那個tag底下的圖大多有類似特徵,模型通過矩陣學習到這個特徵 當然,也有一些generator的算法是會拿部分來源當輸出,不通過矩陣運算的,怎麼選也 是讓模型自己學,類似概念可以參考pointer network或residual network之類的算法48
Re: [AI] 1個狂灌 1個賺錢 1個轉發賺了9萬讚噓 tak1130: 你真覺得這麼簡單,那你來用AI賺錢給大家看啊 07/30 14:38 會有這種現象就是真的不難,賺不了太多錢的原因也是因為真的不難吧。 或者說真正的困難點其實是花錢買一張高階黃家牌顯卡 == 以首篇的例子來講,那種模型的名稱是Lora,全名Low-rank adaptation。 相較起動輒數GB的大型底模,Lora大小約從1MB至200MB不等,18
[分享] 特斯拉FSD beta 來比眼力有沒有比AI好這個youtuber將FSD AI看到的畫面結合實際行車畫面 有幾個亮點, 你去觀察對向車道,或是更遠處都可以發現AI都可以清楚知道車子位置在哪 換句話說,FSD用了鏡頭就可以模擬光達的距離偵測了 這個技術已經被特斯拉提出為專利23
[問卦] AI產生的卡通老鼠圖像 竟登上科學相關期最近,一篇由研究人員使用Midjourney AI圖像生成器創作的科學文章引起了業界的廣泛關注。 這篇文章中的一幅圖片展示了一隻配有巨大生殖器的卡通老鼠,旁邊伴隨著一串毫無意義的文字, 例如「testtomcels」、「Dissisilcied」和「dck」。 該文章原本發表在《細胞與發育生物學前沿》期刊中,22
[情報] 日插畫家組織籲立法保護創作者著作權AI生成畫抄襲? 日插畫家組織籲立法保護創作者著作權 近期流行AI生成圖片,使用者只要輸入關鍵字AI就會透過大數據運算和搜尋歷史資料庫生成 一張與關鍵字有關的圖,圖片細緻且精準符合使用者要求令許多人感到驚奇。但這項技術也 遭到不少人質疑是否有侵權和其他違法的疑慮。13
[閒聊] AI繪畫進軍圖庫!AdobeStock圖庫將開賣AI繪畫進軍圖庫!Adobe Stock圖庫將開賣AI生成的圖片 與Getty等圖庫禁止在其平台上使用人工智慧生成的插圖的圖片不同,Adobe目前正在接受 用DALL-E和Stable Diffusion等生成器製作的內容。Adobe Stock圖庫在官方部落格表示 ,它將接受由人工智慧在其服務上生成的圖像。8
Re: [閒聊] AI畫圖是不是大數據拼圖?首先當然是算的 如果要從全球資料庫找圖再拼圖 那硬碟空間跟運算時間都會非常驚人 從實際面來看很難做到像現在5秒就出一張圖 再來是目前很紅的Novel AI 目前畫風統一程度確實不像一般Stable Difussion9
[問卦] AI繪圖能不能讓我們看到獵人完結篇?最近很紅的AI繪圖本質是機器學習,機器會基於神經網絡來模仿人類學習繪畫的過程。 開發者需要通 過收集當前已有的圖像來讓機器學習,利用算法對圖像進行分類和識別並不斷訓練后,AI 軟件才能“畫出”一張令人滿意的圖片 那假設肥宅工程師把冨樫義博老師的所有作品拿來做為資料庫的話, 我們是不是有機會在有生之年看到庫拉皮卡下船&獵人完結篇呢?4
Re: [問卦] 所以AI繪圖的原理是啥?阿肥外商碼農阿肥啦!剛下班看到回覆一下, 用文組都可以理解的方式,當前主流的圖像生成模型為擴散模型(Diffusion Model),你 可以直觀理解他就是一個拆解/組裝的過程。 這邊舉一個例子,假設你今天買了一個拼圖、積木或鋼彈模型好了。我們手上沒有說明書 ,只有成品,那你想學習組裝你會怎麼做?就蠻簡單的,其實就是我拆解一塊模型的小部
54
Re: [閒聊] 中國情境:當買了蜜雪冰城一口未喝就挨刀47
Re: [閒聊] 中國情境:當買了蜜雪冰城一口未喝就挨刀34
[閒聊] 金搖桿2024開獎31
[情報] DQ3 HD-2D 重製版日本首週賣了82萬套32
[慶生] 今天11/22是高松燈跟我的生日28
[閒聊] 角川可能為防Kakao惡意收購主動聯繫索尼25
[24秋] 膽大黨 08 這個樣子的愛羅真的讚~23
[MLTD] 偶大百萬的手遊畫面太讚了吧!22
[情報] 台灣百合漫畫原作者楊双子獲美國國家圖…46
[閒聊] 有什麼萌屬性是以前流行但現在式微的?20
[Vtub] 11/20同接鬥蟲19
[獵人]凱特能打贏幻影旅團團長嗎?21
[閒聊] 支那人沒有一個是無辜的15
[Vtub] 帕魯跟卡店,哪款害holo不能玩ptcg的13
[閒聊] 哇靠木村拓哉這個Gatsby舞技也太帥了吧42
[閒聊] 中華一番 極 168 不可以色色26
[閒聊]棒球中好球的真正意思是鼓勵擊球嗎?12
[問題] 京子跟小春誰人氣比較高43
Re: [閒聊] 中國情境:當買了蜜雪冰城一口未喝就挨刀53
[毒物] 我想成為泡沫英雄57
[閒聊] 跟女同學做過最親密的舉動是什麼9
Re: [閒聊] 修道院的修女們40
[閒聊] 遊戲眾籌熱潮為什麼消失了?9
[妮姬] 漢賽爾&格麗特 糖果屋姊妹貼貼8
[情報] GRIDMAN UNIVERSE 平成青春辣妹 快閃店60
[閒聊] 有沒有男生扁女生的熱血戰鬥漫畫啊8
[Vtub] 聽VIVI尖叫是什麼感覺?24
[閒聊] 除了秋葉原,日本要逛ACG要去哪?12
Re: [閒聊] 除了秋葉原,日本要逛ACG要去哪?25
[閒聊] 《FF VII》重製第三部會正面挑戰飛空艇