PTT推薦

Re: [奶子] AI畫的婚紗大奶(圖多)

看板C_Chat標題Re: [奶子] AI畫的婚紗大奶(圖多)作者
smart0eddie
(smart0eddie)
時間推噓 1 推:1 噓:0 →:26

--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.25.90.235 (臺灣)
※ 文章網址: https://www.ptt.cc/C_Chat/M.1664602340.A.C44

twmacaron: AI很人性化 只注意到奶子 10/01 13:33
BruceChang: 人畫手都會看自己的手 所以.... 10/01 13:33
aria0520: 大家比較在意胸只能有兩顆 手比較隨意 10/01 13:34
wahaha99: 但手指形狀複雜,所以還沒學好 10/01 13:35
Koyomiiii: 手指大家不一定會細看 奶子大家一定看 而且也不會po 10/01 13:37
emptie: 有些人類是真的有6指啊 10/01 13:38
whitekyubi: 角度不同,有的手指會被擋起來吧?猜的 10/01 13:42
silverowl: 同時出現在畫面上的手指有0~10根,而奶子大多只有一對 10/01 13:42
whitekyubi: 雖然也不能解釋為什麼有6789根手指的出現 10/01 13:42
arrenwu: 這不太需要解釋吧 訓練過程中我不覺得工程師會特別讓 10/01 13:44
arrenwu: AI架構中有「人類手指10根才正常」的概念 10/01 13:44
arrenwu: DeepLearning 會強有一個特質就是讓AI架構自己決定什麼 10/01 13:45
arrenwu: 特徵比較重要 10/01 13:45
tchaikov1812: 人的手指超複雜,比兩個胸部複雜百倍 10/01 14:06
johnny3: ai沒有立體的概念 不知道為什麼手指不同角度有不同數量 10/01 14:07
johnny3: 學習起來就是有時候很多有時候很少 不知道為什麼 10/01 14:07
johnny3: 不像眼睛 什麼角度看幾乎都兩顆 10/01 14:08
raincole: AI 其實也不「知道」奶子有兩顆啊 你這個「知道」也未免 10/01 14:35
raincole: 給 AI 太多 credit 了吧 10/01 14:36
xiaohua: 你就知道可悲的人類餵了多少奶圖了 10/01 15:25
xiaohua: 餵食圖片中,奶子含量遠遠大於手手 10/01 15:26

那如果是要特化專門生成人類色圖的模型
除了目前的語言解析模型去分析輸入的文字
能不能額外加個人體生成模型
先讓AI生成人體的3D體態
再轉成2D圖
訓練3D人體的時候就可以額外告訴AI
一般人的體型骨架
也能讓AI學到立體的人體資訊

有沒有資工大神可以開示一下?

--

※ PTT留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 118.171.17.111 (臺灣)
PTT 網址

emptie10/01 18:20可是有些我們覺得賞心悅目的2d圖透視並不是最正確的

DAEVA10/01 18:27先決定空間和3d人偶姿勢再上色這樣

diabolica10/01 18:41我滿懷期待的點進來 啪 沒了

chang1248w10/01 21:11問題可能有幾個,一個是在3d空間中生成物件,包含材

chang1248w10/01 21:11質啊 形狀啊 光影渲染啊什麼的

chang1248w10/01 21:12然後要把這東西轉換成2d畫面,本身就是一門大學問

chang1248w10/01 21:14最後還得要球整個過程可導(微分)

chang1248w10/01 21:17難易度可想而知: totally bullshit

chang1248w10/01 21:18因此大概三五年前,試圖在2d圖片上融入了manifold le

chang1248w10/01 21:18arning 的概念

chang1248w10/01 21:21模型該學的是在高維度空間中的低維manifold

chang1248w10/01 21:24可以把它想成一輛關於車子的影片,車子的像素在整個

chang1248w10/01 21:24影片畫質1920x1080x3那麼高維度的空間中變化,但其實

chang1248w10/01 21:24車子的概念只在三個空間維度加一個旋轉和一個時間,

chang1248w10/01 21:24也就是五個維度上活動

chang1248w10/01 21:26模型該做的就是在1920*1080*3找出那5維度的車子概念

chang1248w10/01 21:26的變化脈絡,並把它定義為車子

差不多就是這樣 不是要他憑空生出包含渲染的3D人體模型 而只是生出人體體態 然後再用這個資訊想辦法弄出2D圖

chang1248w10/01 21:27這個概念是現在深度學習的基石

chang1248w10/01 21:31所以其實並不一定要在3d空間才能引入骨架的資訊,問

chang1248w10/01 21:31題是這個資訊怎麼融入模型

chang1248w10/01 21:31welcome contribution

chang1248w10/01 21:32另外有個領域在做從幾個角度的相片來做3d建模

chang1248w10/01 21:36去年的sota印象中是在3d空間裡建模光的通過率還有材

chang1248w10/01 21:36質,有物體的地方通過率就低

chang1248w10/01 21:40採樣的時候他們用矩陣掃過空間,利用被擋下來的機率

chang1248w10/01 21:40做材質的期望值並記錄在矩陣上,來達成可微並高效的r

chang1248w10/01 21:40ay tracing

※ 編輯: smart0eddie (118.171.6.94 臺灣), 10/02/2022 12:10:01