PTT推薦

[討論] Ai什麼時候可以做動畫??

看板C_Chat標題[討論] Ai什麼時候可以做動畫??作者
krousxchen
(城府很深)
時間推噓 8 推:9 噓:1 →:58

現在Ai繪圖已經發展一段時間了,有沒有公司開始發展Ai動畫??

都能生成圖畫了,那麼再多給一些咒語讓圖畫動起來應該也是一個發展方向

要多高的解析度跟FPS都可以靠Ai算出來

應該最快被取代的就是18禁動畫,因為他們預算普遍偏低,畫面品質也普遍不高

直接用Ai作畫的話,成本就可以超級壓縮

連配音也不用找了,直接用Ai

--

※ PTT留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.170.17.144 (臺灣)
PTT 網址

sheng7631403/30 17:56已经有了

Owada03/30 17:56已經有了

allanbrook03/30 17:56吹的會跟你說很快啦 一兩年啦之類毫無建設性的幻想假

allanbrook03/30 17:56

shawn102803/30 17:56不是早就在用了嗎

Owada03/30 17:56你動畫就是好幾張原畫連續播放

eva05s03/30 17:57已經有了,記得已經可以把真人畫面直接轉動畫

Owada03/30 17:57看上去很怪是很怪 但是要論有沒有是有的

allanbrook03/30 17:57現在ai動畫的邏輯大部分是批次處理影格加上濾鏡式的

allanbrook03/30 17:57方式

這樣的話,還不是我想像中直接用Ai作畫的方式直接用咒語請Ai畫 不過看到Ai發展的速度,說不定還真的很快就做出來了 因為Ai繪圖跟ChatGPT也是突然就出來的東西,說不定已經有人在後面做了

acininder03/30 17:58txt2video學術進度上的確是約落後1-2年左右

allanbrook03/30 17:58除非有新的處理方式 不然這個方法要做你平常看的那種

allanbrook03/30 17:58動畫 工太繁瑣了

acininder03/30 17:58現在還在dalle1等級的小解析度上發展

bluejark03/30 17:58已經能做了啊 只是做的好的的不多

astinky03/30 17:58現在就是動新聞水準的程度

acininder03/30 17:59隨著controlnet的進展 出現了另一條新路

allanbrook03/30 17:59好看的幾乎都是已存在影片的濾鏡處理的感覺而已

rogerliu12303/30 18:00https://youtu.be/GVT3WUa-48Y

allanbrook03/30 18:00但AI的可控性就沒有那麼精準

acininder03/30 18:00Corridor Crew有在實作diffusion based的動畫短片

acininder03/30 18:01剛講完就有人貼了 那我就不贅述了

allanbrook03/30 18:01上面那個影片就很明顯 你就是要有原始的檔案

原始的檔案?比如說像是動畫的分鏡稿嗎

acininder03/30 18:02純粹的txt2video可以追meta和google的進展

acininder03/30 18:02這兩家走最前面

allanbrook03/30 18:04不是 就是要嘛實拍影片 要嘛3d動畫 只靠分鏡他是不會

allanbrook03/30 18:04動的

astinky03/30 18:04原始的檔案就是指已經完成的動畫影片,丟給AI過個水就叫

astinky03/30 18:04AI製作的動畫這樣

acininder03/30 18:04舉例來說你用戀活的骨架擺出一個短片後用diffusion渲染

allanbrook03/30 18:04或是手繪動畫 總之要是影片

原來如此,不過也是可以減低不少成本了

acininder03/30 18:06如果你想要的是 寫一個劇本大綱 然後自動生成影片 這

acininder03/30 18:06類的還在低解析度發展 google前陣子的dev會議有展示

對動畫產業來說,用分鏡稿直接生成應該對他們來說比較容易

abccbaandy03/30 18:06先畫本本再說吧...動畫也太早

allanbrook03/30 18:06但認真來說這個方向要創作新內容我覺得完全是脫褲子

allanbrook03/30 18:06放屁

abccbaandy03/30 18:07不過韓國條漫感覺有些像AI做的,劇情、畫面都怪怪的

bluejark03/30 18:07用controlnet線稿還是骨架也能做但他會亂生圖

abccbaandy03/30 18:07然後狂出新作

bluejark03/30 18:08網路上可以看到很多垃圾動畫會一直亂跳圖的

我覺得這就是Ai動畫要解決的,就是每一張畫之間要有關聯性 而不會一直變來變去

acininder03/30 18:09Google展示的一段敘述文章 然後產生約一分鐘的影片 解

acininder03/30 18:09析度跟openai的初代dalle差不多 初代到今年約兩年 當

acininder03/30 18:09時dalle剛出時完全沒人料想到解析度和品質的進展會如

acininder03/30 18:09此爆速

acininder03/30 18:11所以要我推估的話 未來一到兩年的確可能出現初具雛形

acininder03/30 18:11的可用txt2video 而不是現在的拼接渲染歪路

那有沒有用分鏡稿的方式?

※ 編輯: krousxchen (1.170.17.144 臺灣), 03/30/2023 18:12:22

acininder03/30 18:11因為這技術是已經存在且有持續在發展的

acininder03/30 18:13在txt2video解析度提升至可用前 應該是controlnet bas

acininder03/30 18:13e的作法會先支配領域一陣子

acininder03/30 18:13分鏡稿的方向就跟現在controlnet style比較接近

acininder03/30 18:14兩大路線之爭 img2video 還是txt2video

acininder03/30 18:14都有機構在做

acininder03/30 18:15現在純img2video已經可以做到類似哈利波特裡報紙的那

acininder03/30 18:15種感覺

acininder03/30 18:16機構展示上像是讓名畫動起來

arsl40003/30 18:34不要瞎掰好嗎?影像處理領先語言處理幾十年,什麼突然出

arsl40003/30 18:34

krousxchen03/30 18:47我知道啊,我只是說對於一般人來說是這樣

qq32003/30 19:17推特上有一些專門在研究調教AI寫實影片的 正以明顯的速度在

qq32003/30 19:19進步中 目前寫實的K-pop跳舞短片 已經可以做到幾乎沒有跳圖

qq32003/30 19:19接縫的程度 但是很耗功夫調教跟吃背景(不能太複雜)

qq32003/30 19:21而且這還是處在土法煉鋼的現階段 等未來更多插件或工具開發

qq32003/30 19:21出來 做出好成品的門檻一定會愈來越低

SALEENS7LM03/30 19:26做可以啊,阿就爛又麻煩就是

s900651234503/30 19:58現在ai動畫真的要很好看的話,差不多跟直接拿mmd做

s900651234503/30 19:58一樣麻煩,節省的也只是渲染環節,而mmd的渲染早就

s900651234503/30 19:58有一堆大佬弄好新手灌一灌就有80分。

s900651234503/30 19:58ai動畫還是初期,再等兩個月再回來問看看吧