1枚の景観写真から高品質なアニメを自動生成―雲の動き、夕焼け色の変化を別々に処理する人工知能技術を開発:筑波大学ほか
(2019年11月5日発表)
筑波大学システム情報系の遠藤結城助教、金森由博准教授と、豊橋技術科学大学情報・知能工学系の栗山繁教授の研究グループは11月5日、一枚の景観画像(静止画)から、人工知能(AI)を使って時間とともに変化する高品質な動画(タイムラプス )を自動生成する技術を開発したと発表した。将来はインターネット上の景観画像を基に手軽に娯楽動画を作ることができ、未来の景観予測シミュレーションなどにも応用ができるとしている。
動画は静止画と比べると、遥かに複雑な情報を含み情報量も膨大になることから、人工知能による動画の生成は難しいとされてきた。
流れる雲や水面の動きなどの景観をよく観察すると、雲の動きは細かく刻々と変化し、夕焼けや日没などによる色の変化は全体的にゆっくりと変わることに気づいた。グループはこのことに着目し、複雑さを克服する方法として物体の細かい動きと全体的な色の変化を別々に扱い、ニューラルネットワークに学習させることを編み出した。
ニューラルネットワークは、人間の脳神経系のニューロン(神経細胞)の仕組みにならって数理モデル化し、コンピューターで処理する方法で、人工知能の代表的な手法になっている。
細かい動きは、短い時間での変化を追うために一旦出力された画像を再び入力し予測する方法をとった。動きの遅い色の変化は、入力画像からある時刻への色の変化を直接予測できるようにした。
長期的な予測では、誤差の累積による影響を受けにくくするために中間データを使い、流れ場や色変換マップとして予測する間接的な方法を採用した。
これらの工夫によって、これまで低かった動画の解像度(128×128画素、フレーム数が32)を格段に高品質な動画(640×360画素、1,000フレーム)として出力できるようになった。
さらに静止画像から未来を予測する場合は、雲のように動きが掴みにくいものをニューラルネットワークを使って、動きや色を制御できる仕組みとして組み込んで完成させた。
今後は人の歩行など複雑な動きを予測することや、物理法則をより忠実に再現するテーマに取り組みながら、景観予測シミュレーションなどへの応用を深めていくことにしている。