| seedance2.0是又一個deepseek時刻 zt |
| 送交者: 2026年02月14日00:36:11 於 [世界軍事論壇] 發送悄悄話 |
|
|
seedance2.0是又一個deepseek時刻自從AIGC浪潮開始以來,AI生成視頻始終是一個熱門方向。自從GPT的sora驚鴻一瞥之後,等到實際上線了大家發現這玩意也沒那麼好。哪怕迭代至今依然有着一致性差、不遵守人體或者物理規律等。而最關鍵的是,視頻時間一長內容就很不連貫,多段生成的話一致性又很差,這導致AI視頻只能是個玩具。除此之外先前的AI視頻需要寫非常詳細的提示詞,包括場景、運鏡、分鏡等,直接導致AI視頻的門檻並不低。 然而字節的seedance2.0就不一樣了,在看馮驥感慨seedance2.0的強大之後,我也去嘗試了下。一開始使用我航展拍攝的飛機為素材讓它生成視頻,發現扔下來的炸彈是反的。但當我拿動漫素材來生成視頻後,這seedance2.0的效果真把我震撼了,直接上了一個基礎檔的年費會員。
當之無愧的最強AI視頻工具 先給大家看看給seedance2.0提供的素材。非常簡單,就兩張動漫人物的圖片,要求讓他們對打。而且在動畫裡和電影裡,這兩人沒有以這樣的服裝交戰過,沒有現成素材。
而指令也非常簡單,沒有分鏡沒有腳本,只有一句話:倆人交戰,豐富打鬥細節,中心旋轉運鏡。 那效果如何呢?且看VCR 除了紅A的幹將莫邪雙刀有些不對勁外(參考圖是弓),其他的完全就是原作水準了。自動腳本,自動分鏡,只需要一段簡單的提示詞和參考圖,一切全部自動完成,可以說這就是AI視頻的deepseek時刻。 我拿去年拍的全家福生成了個動畫短片 用珠海航展上的SU57照片生成了一段 更為重要的是,當年deepseek比起國外頂尖模型還是有些差距,deepseek是勝在資源消耗少、效率高、容易普及。但seedance2.0是全方位的碾壓了sora2.0以及其他的AI視頻模型。也因此導致seedance2.0現在熱度非常高,動不動就是幾萬個任務在排隊要等幾小時。
等了一個小時後,排隊依然需要兩小時 要說這玩意的意義,有幾個方面。 對於遊戲廠商(尤其是二次元手遊)來說,以前一秒幾千的動畫可以直接用seedance來解決了,成本大幅下降的同時效率大幅上升。而對於短劇拍攝來說,AI短劇的效果和觀看體驗能大幅增強,甚至一些真人短劇也能用這個來低成本增加特效。而如果再深入些,那這玩意簡直是認知作戰的極佳工具,視頻幾乎就是可以以假亂真看不出破綻。也因此seedance2.0目前禁止任何真人素材視頻的生成,就是為了避免這一情況發生。但如果它誕生在美國呢?這後果不敢想 我們應該慶幸seedance2.0誕生在中國,慶幸科技掌握在文明手中。 |
|
|
![]() |
![]() |
| 實用資訊 | |
|
|
| 一周點擊熱帖 | 更多>> |
| 一周回復熱帖 |
| 歷史上的今天:回復熱帖 |
| 2025: | 探訪全球“小額豁免”貨物樞紐:從廣州 | |
| 2025: | 紐時:蘭州拉麵 | |
| 2024: | 川普直接對華裔的三條讓任何一個正常華 | |
| 2024: | 卡爾森採訪普京,關於中美俄大三角關係 | |
| 2023: | A United 777 made a scary plunge tow | |
| 2023: | 福特將採用中國技術在美建造電動汽車電 | |
| 2022: | 申鵬:導彈零件,從淘寶“進口” | |
| 2022: | 中國集成電路:8年翻兩番 | |
| 2021: | 張宏良:我們將以什麼樣的政治文明統一 | |
| 2021: | 德國的空氣過濾柱將來自中國 | |


民航工作者,民航業評論員




