動画生成AI「Runway」新機能がきっかけ
まず、この動画を見てください。Stable Diffusionを使って作成した1枚の画像を、いくつかの手順を実施することで、3Dモデルとして扱えることに成功している様子です。
https://youtu.be/yLVeJs8g3Mg
こうしたことが実現できるようになったのは、動画生成AIサービス「Runway」に11月2日に追加された新機能「カメラコントロール機能(Advanced Camera Control)」のためです。1枚の画像に対して、最大10秒の生成される動画にカメラの動きをかなり詳しく指定できるようになりました。左右方向の回転や、上方向へのチルト、ズーム(拡大)などの操作ができてしまう。
これまでもプロンプトでも指定できましたが、ランダム性が高く、正確な制御は難しいものでした。そして、実写のみならず、アニメ系の画像であっても動かすことができたりします。この機能が先進的なのは、人物やキャラクターの「一貫性」を維持できている点です。これまでの動画生成AIではこうしてカメラを動かすと、途中から別の人物に変化するといった破綻が起きる傾向がありました。
続きはソースで
https://ascii.jp/elem/000/004/236/4236636/
https://www.youtube.com/watch?v=CwdCkE4OEwI
引用元: ・【CG】3DモデリングにAI革命の兆し 1枚のイラストから3Dデータが完成 [ネギうどん★]
芸スポではない
エロは偉大なり
コメント