ディスカッション (116件)
Sora 1が1年以内にリリースされたことを考えると、予想をはるかに上回る出来栄えだ。
どんなプロンプト使ったの?
万能なプロンプトはないよ。もし何かアニメのシーンを作るなら、最初に「呪術廻戦のシーン」みたいに作品名を指定して、そのあとに最終的な動画の雰囲気を決めるバズワードをいくつか追加するといいかも。
使ったプロンプトを投稿してくれよ。
プロンプトの門番かよ(笑)。みんなマジでプロンプトをIPみたいに扱ってんじゃん。
最近のバトルシーンがいかにテンプレ化してるかもわかるね。
最近に限った話か?もう何十年も同じお決まりのパターンを使い回してるじゃん。
マジか、もう年取ったな…
おー、ちょっと感動したかも。ソラに格闘やらせようとずっと試してたけど、いつも失敗してたんだよね。まだちょっとぎこちないところもあるけど、全体的にはかなりいい感じ。
今のうちに楽しんどいた方がいいかもね。OpenAIって、最初はクールな製品出すけど、文句が出始めるとすぐに弱体化させる前科があるから。
ベースにするアニメや作品にマジで左右されるよね。あと、Bingの画像生成も、最初めっちゃ楽しかったのに、後からめっちゃ弱体化されたの覚えてるわw
1年も違わないってのがマジでヤバい
それってただの都市伝説だと思うな。新車の匂いが時間とともに薄れるみたいなもんでしょ。GPT-image-1が出た当初に使ってたプロンプトを今再利用しても、同じクオリティの結果が得られるよ。
今のうちに楽しんでおいた方がいいかもね。OpenAIはクールな製品をリリースしても、苦情が殺到するとすぐに弱体化させるっていう実績があるから。
マジそれな。Soraが最初にリリースされた時をめっちゃ思い出すわ。サンプル動画とか初期のプレビューはマジでヤバかったのに、エンドユーザー向けの製品はそこまで良くなかったっていう。
確かにそうだけど、物理的に可能ってことは、いずれ出てくるってことだよね。Sora 1のプレビューを見てみろよ。今じゃSora 1のプレビューよりずっと良いものがゴロゴロしてるし、そういうモデルはナーフされてないじゃん。
招待コード余ってたりする?
マジかよ、これアニメ制作チームが莫大な予算かけて何ヶ月もかかるレベルじゃん。もし、もうちょっと洗練されて構造化できれば、アニメーションの未来が変わるぞ。マジでヤバい。
マジでクールな技術だよね。アニメーターを完全に置き換えるんじゃなくて、もっと進化したアシスタント/ツールとして活用されるようになればいいな。
そうだね、ストーリーボード作ったり、全シーンの草案練ったりするには、アニメーターや監督がまだ必要だろうけど、低予算のアニメ化作品とかのCGIアニメーションは、これに置き換わる可能性あるね。こっちの方が安くて、既存のCGIより出来が良い場合もあるし。
>監督がストーリーボードを作って、全部のシーンの草案を作る
言いにくいんだけど…笑
もしこのメディアの理解度が皆無なら、何もまとまりのあるものは起こらず、ただキャラクターが不自然に動き回り、AIが持つそのキャラクターに関する一般的な認識に基づいてランダムな行動を取り、カットは「もしかして違うエピソードを見てる?」と思わせるようなものになると思うだろうね。
これを綺麗にするのは無理だよ。6本指を消せる写真とは違うんだから。めちゃくちゃで、綺麗な爆発を全部無視したら意味不明だよ。こう見えるのはすごいけど、実際にエピソードに投入できるレベルじゃない。AIによくあることだけど、80%までは到達したけど、残りの20%はさらに難しいだろうね。
「かなり良い」だと? 俺が生成AIにハマり始めた頃、アニメの画像一枚でマジで衝撃受けたんだぜ。これはマジでヤバすぎ!!!!
マジそれな。2019年にアニメキャラがグチャグチャになってるの見て、めっちゃハマってたの思い出したわw
2019年にはAIは存在しなかった。
ナイスジョーク。
何のAIを使ったか教えてほしくて、君を釣ろうとしてたんだ。
自分でカルマを消滅させるようなことしてるじゃん。
カルマなんてどうでもいい。それより、そのAIが何なのか誰も答えてくれないのが気になる。
ごめん、ママがカルマがマイナスの人と話しちゃダメって。
マジかよ
誰も教えてくれないって、マジで投稿のタイトルに書いてあるからじゃん。Sora 2って。
当たり前だろ、2019年のAIの話をしてるんだよ。
ていうか、その話してるの君だけじゃん?
昔は今みたいに、AIが明確なリリースとして定義されてるわけじゃなくて、みんな自分のワークステーションで小さいモデルを学習させてたんだよ。画像生成だと、attention is all you need以前は、敵対的生成ネットワーク(GAN)が全盛期だった。この記事が、2017年に俺がこの分野に足を踏み入れるきっかけになったんだ。大学にいる時にどこかでたまたま見つけて、人生の方向が変わった。
求めてた答えだ。
直接聞けばよかったのに。
「かなり良い」って言って良いと思うよ。今の生成AIにとって、「かなり良い」アニメの戦闘シーンを作るってのはマジですごい偉業なんだよね。よくある人間が作ったコンテンツの基準で完璧じゃないからって、こんなものを機械に頼んで作らせて、こんなに良いものがポンと出てくるってことの驚きが減るわけじゃないじゃん。コンピューターに何か頼んだらそれが実現するっていう点で、スタートレックのホロデッキに一番近いものだよ。
問題は、この「そこそこ良い」ゾーンから抜け出せない可能性があるってことだよね。アーキテクチャの制約とか、収穫逓減の法則とかで。どうしてもジェネリックな感じになっちゃうのは、そういう風に設計されてるから仕方ないのかも。
プロンプトで夜に見る映画やアニメが作れるようになるのが待ちきれない。
昔のYouTubeのマスキング動画思い出すな
ナルトのやつも見たい!これマジですげーわ
俺、サスケの作ったことあるけど、良いプロンプト使えばマジでいい感じになるよ
マジですごい。今作ってるやつ投稿したいけど、このサブレのカルマが足りないんだよなー
スタジオがこぞってパイプラインにねじ込んで、利益率のためにスタッフ9割カットし始めるのが目に浮かぶわ!
でも会社が利益に集中すれば、製品はもっと良くなるんだよ!!1!1!1!!!111
Soraは面白いけど、ミーム職人以外に誰かの仕事を奪うようなレベルには全然達してないでしょ。
マジで頼むからその通りであってくれ!業界の駆け出しアニメーターとして、みんなの反応見てるとマジで落ち込んで、もう全部投げ出したくなるんだわ。
マジで、この騒動の後も、俺が参加できるような業界が残ってて欲しい。
まあ、駆け出しアニメーターなら、このクリップが派手なだけで、ミームになりそうな程度だってわかるでしょ。AIをワークフローに組み込む方法はちゃんと学んどくべきだけど、手描きアニメーションはなくならないよ。むしろAIのおかげで、業界がアニメーターを奴隷みたいに扱うのをやめるかもしれないし。
まあ、そりゃあ派手なだけなのはわかるけどさ、同時に、これが一番マシなSora 2の姿だとしたら、俺みたいな立場の人間にとって、これからどれだけ酷くなるかわかんないじゃん。大手制作チームが、何百人もいたのが20~30人くらいになるかもしれないし。業界はすでにストリーミング戦争のせいで苦戦してて、仕事を探してなんとか食いつないでるやつらも多いのに、こういうのが出てくると、マジで絶滅危惧種になりそうで怖いんだよ。
ワークフローへの統合については、プロダクションパイプラインにもっと適したプログラムが出てくるまで待つかな。現状のAI統合って、動かすのがめちゃくちゃ複雑じゃん。特に、ただのプロンプトスロップ(プロンプトの寄せ集め)じゃなくて、出力結果をちゃんとコントロールしたい場合はね。例えば、Soraにラフ原画を食わせて、線画だけ出力させたり、キャラクターシートの色指定を読み込ませて、色塗りは全部やらせて、ライティングはポストプロダクションでやるためにやらせない、みたいなことって可能なの?
まさにこれ。初代iPhoneのキーボードの無さとか、初期のデジタルカメラのイマイチな解像度に対する反応と同じ。これからどうなるか、なんでみんな分からないんだ?
現役の3Dアニメーターだけど、低レベルのアニメーターが置き換えられるリスクは確かにあるね。でもAIは、少なくともほとんどの会社では、完全な置き換えじゃなくて、アーティストやアニメーターの補助ツールになると思う。こういうのが、3~4年後にはもっとすごいことになるって感じ。だから腕があれば、そんなに心配することはないよ。
これはかなり興味深いね。カメラで特定の効果を出すためにリグを壊す必要がある場合、AIアシスタンスをオフにする方法はある?
あと、もっと詳細なリグを作成したり、カスタムノードを作成したり、他のリグのロジックを使って既存のリグにインポートしたりする方法もある? それとも、プリセットを使うしかない?
もう一つ。2Dアニメーション向けに、これに似た技術が開発されているか知ってる? キャラクターシートを読み込ませるとラフを綺麗にしてくれるものとか、ライティングノードを配置した場所に基づいて影を生成してくれるものとか。
そのツールはかなり自由に操作できるし、プリセットだけを使うわけじゃないよ。ポーズやアニメーションに関係なく、自然な動きを合理的に予測して、その間にキーフレームを追加してくれる、本物のAIなんだ。追加されたキーフレームは、どんなアニメーションソフトでも編集できる。数年後には、こういうツールがアニメーション技術に直接組み込まれるようになると思う。
2Dアニメーションについては、残念ながら今は具体的なことは何も知らないんだ。普段は3Dしかやらないからね。でも2Dアニメーションの経験もあるよ。ワークフローは全然違うけど、東映アニメーションがすでにAIワークフローを拡大していることを考えると、2Dアニメーションにも同じようなツールが最終的には登場するんじゃないかな。
鬱に落ち込むってコメントしようと思ったけど、このコメント見てると、聞くべき質問の種類は分かってるんだね。先輩とかメンター、マネジメントにどんどん頼って。大きな波が来るのは確実。できる限りうまく乗りこなして。
3Dアニメーションが出てきた時、アニメーターの仕事がなくなるとか言われてたの覚えてる?あのベルセルクの映画見た?全然違うじゃん。新しい技術が出たからって、すぐに前の技術が置き換わるわけじゃないんだよね。そういう時もあれば、そうじゃない時もある。
マジかよ、アニメーターってすでにめっちゃ給料安いじゃん。
俺がそんなこと知らないとでも? 俺は文字通り業界のアニメーターだ。
俺たちはすでにクソみたいな扱いを受けてるし、誰もリスペクトしてくれない。ファンですらそう。ただの手段としてしか見られてないんだ。だから仲間のアニメーターと、何かを作ることに貢献したっていう誇りだけが頼りなんだ。
なのに、それすら奪われようとしてる。AIのせいで、制作に必要なスタッフが大量に削減される危機に瀕してるんだから。
言いたいことは分かるよ! コメントした後で、君の状況を知ったんだ。
日本のアニメーション業界は、テクノロジーに対してかなり異なる反応をしてきた。CGが正当なツールとして認められるようになったのは、ごく最近のことなんだ。
MAPPAの奴隷たちはレイオフを喜ぶだろうね。
Sora 2って音声/オーディオも追加されるの?もしそうなら最高じゃん
そう、Veo 3と同じように全部できるよ
マジどうやったらこんな風にできるんだ?俺がやるとロボットみたいなビデオゲームのキャラみたいに動き回って画面をフワフワ浮いてるだけなんだよ😭 しゃべりもひどいし。
ステップ1は、良いアニメーションの有名な番組を見つけることだね、ハハ。
アニメーションさせるには、元になる素材が必要だよね。しっかりしたリファレンスがないとマジでひどいことになる。
アニメのクリップをアップロードする必要があるの?それじゃ、意味なくない?
マジでそれな。ライセンスされたキャラクターだったから不思議に思ってたけど、納得。オリジナルの番組のトレーニングデータをそのまま吐き出して再構成してるだけなんだね。
オリジナルのキャラクターデザインと「ストーリー」をプロンプトしたら、どんなものが生成されるんだろう…
いや、無理だって。テキストからビデオだけだよ。
そんなことできないよ。text2videoだけだよ。
参照画像をアップロードできるけど、俺が言ってるのは学習元データのことね。
参考映像がないとまともなものが作れないなら、むしろちょっと安心かも。アニメ業界もまだ完全には終わってないってことだよね。
アニメーターは5年から10年でオワコンになるな😭
俺は純粋主義者じゃないから、もし面倒なキーフレームを全部自分で処理することでアニメーターの負担を減らせるなら、全面的に賛成だわ。
プロンプト共有してくれ!俺もこんな感じの作ってみたけど、めっちゃ試行錯誤が必要だったんだ。
自分がイケてると思ってる勘違い野郎が出し惜しみしてやがる。
俺も似たようなの作ったことあるけど、そっちの方がAIノイズが少ないな…。俺のはただ「~風」って入れるだけ…例えば、芦谷耕平とかヴァンサン・シャンスールとか、他の有名な監督、アニメーター、アーティストのスタイルで…パンとかカメラワークも追加できるかも…振り付けのレジェンドも追加する必要があるかもね。でも常にミニマリスト、つまりより良い結果を得るためには例を少なくするんだ…
来年にはアニメは漫画やマンファから直接生成されるようになるだろうな。
どうやったらコードもらえるんだ?
勘弁してくれ!クスリをゲットしろって言っただけで、連邦捜査官を殺せとは言ってないぞ!
アクセスできるのが待ちきれない!マジですごすぎる!!ハイコンセプトなビデオを作るのが楽しみ。
ただの盗用された人間のアートじゃん... それ以上でもそれ以下でもない。
マジかよ。
AIはコピペしてるわけでも、キルトみたいに画像を縫い合わせてるわけでもないから。
他人のデータと努力で学習してるんだからな。この場合は、大量のアニメのバックカタログを使ってるんだろう。洗練された盗用だよ、結局は盗用。
面白いことに、本物のアーティストも他人の作品を参考に練習するんだよね。
本物のアーティストは、自分の経験や世界の見え方を作品に加えるんだ。
AIは経験できないから、何も付け加えられない。
ただ…人間のアートを盗んで劣化させるだけで、それ以上でも以下でもない。命がないんだよ。
AIは間違いなく独自の何かを付け加えてる。それは、人類の芸術の総和でトレーニングされたアーティストみたいなもの。ただ盗んでるだけっていう主張は、法的にナンセンスだし、バックエンドで何が起こってるのか理解してない証拠。
よくやったね 🤗 OP
誇りに思うよ
AIマジでヤバくなってきてるな
どうやったらこんなに滑らかになるんだ?キーワードとか教えろよ
まだちょっと意味不明なところもあるけど、マジで改善されてるじゃん!
このアニメの戦闘シーン、平均的な異世界アニメのバトルより全然良いじゃん(笑)。
マジで、どういうプロンプト使ったらこんなに綺麗で滑らかなアニメーションになるんだ?俺がやると音楽に合わせてカクカクした静止画にしかならないんだよ(笑)
既存のアニメをほぼ1:1でコピーしてないのを見る方が面白そう。例えば、ジョジョの8部をアニメ化できるか?もしそうなら、かなりすごいし(ジョジョは神聖だから、最大の異端でもあるけど)。
最近のアニメよりクオリティ高いじゃん。
r/jujutsufolkにシェアして、みんなが溶けるのを見ようぜ。
台無しになったアニメのエンディングを全部修正してやる。まずはMHAから始める。
で…日本がOpenAIを訴えるまであとどれくらい?
おそらくローカルでやるんじゃないかな。
スタジオは、独自の巨大なGPU構造に投資して、独自の技術を調整するリソースを持ってるだろうし、特定の用途に特化したモデルをトレーニングすることもできるだろうしね。
音声と対話専用のモデル、ランニング専用のモデル、動き専用のモデル、とかを持つことで、サードパーティのAPIを使うよりもプロセスを高速化できる可能性があるんだ。APIは、彼らのIPを支配する力を持つだけでなく、品質の面でも効率が悪いだろうし。
WANがそのうちどうなるか見てみようぜ。
冗談だろ、どうしたらこんなことできるんだよ。
これはひどいな。
最近のアニメの作画と一緒じゃん。
マジですげえな
CEOは笑いが止まらんだろうな。
みんな聞いてくるから、俺が普段使ってるプロンプトの構成はこんな感じだよ:(クオリティのベースライン) + (キャラ/シーン) + (映画的な演出) + (フレーム間の整合性) + (立体的な照明とエフェクト) + (オーディオ演出)
例:「4K HD 最高品質のアニメシーン。呪術廻戦の五条が宿儺に真っ二つにされるところ。劇的かつ映画的なフォーカスを衝撃に当て、カメラアングルとテンポをダイナミックに使って残虐性を強調。各フレーム間でキャラモデルは一貫性と整合性を持たせ、どのショットも敗北の中ですらヒーローショットのように構成。立体照明で血と雰囲気を際立たせ、音楽と会話は無し。日本語吹き替え。決定的瞬間はスローモーションで、流れるようなクリーンなアニメーションスタイルを強調」
色々試してみるのがおすすめだよ。人気アニメほど結果が大きく変わるからね。俺の経験だと、DBZっぽいアニメーションはほぼ常に動きが硬い。JJK/Fateっぽいアニメーションの方がずっと良かった。だから動画のほとんどがそれなんだ。
あと、特定の攻撃方法を指定すると、ジェネレーションのクオリティが下がることもある。だから、うまくいかない場合は、キャラの詳細をあまり細かく指定しない方がいいかも。他に質問があったら遠慮なく!
プロンプトは何?
いくつか作って、編集ソフトで繋ぎ合わせただけだよ。
現代のハリウッドの終焉と、全く新しい何かの誕生を目撃しているんだな。AIエージェントがいれば、俳優なんていらないじゃん。
メカニズムは良いけど、ただただクールに見せようとしてるのしか見たことないな。
マジで、B級スタジオより全然クオリティ高いと思うわ。
でもクソに見える。
正直、これもまだクソに見える。ほとんどの動きに理由も流れもないし、視覚的に面白くない。こんなものが生成できるのはすごいけど、見ててつまらない。
まだまだだな。振り付けがめちゃくちゃで、貼り付けたみたい。
すごいポテンシャル。プロンプトを改善すれば、キャラクターの能力を正しく使えるようにできるのかな?
プロンプトは何ですか?
まだ初心者なんだけど、これって10秒のクリップを繋ぎ合わせて1分にしてるだけ?もっと長くする方法ってあるのかな?
10秒のクリップのコラージュだよ。ChatGPT Proのユーザーなら、お金を払えばもっと高品質で長いクリップが手に入るらしい。