ジャンクワードドットコム・歴史と暮らしのポータルサイト

2025.04.05

AIで長尺動画が作れる時代に!Pikaframes新機能のポテンシャル

動画生成AI市場に新たな転機!Pikaの新機能「Pikaframes」が最大25秒の動画生成を実現し、業界に衝撃を与えています。5フレーム制御で思い通りの展開を実現できる革新的機能の実力と可能性、AI技術の融合について解説しています。AI動画制作に興味のある方必見の最新情報です。

目次
  • フレーム制御がもたらすAI動画制作の新時代
  • AI動画生成サービスの差別化戦略から見える未来
  • AI動画とフレーム補間技術の進化
  • AI音楽制作との融合がもたらす創作革命

AIで長尺動画が作れる時代に!【AIニュース】

動画生成AI最前線--Pikaframesが25秒の壁を突破

Pikaが新機能「Pikaframes」で最大25秒の動画生成を実現したことが報告されています。この機能では5フレーム分の画像から動画を生成でき、各フレーム間を最大5秒のトランジションで繋げることが可能です。また、ループオプションを使うことで合計25秒の動画に到達できると説明されています。対照的に、OpenAIのSoraは20秒生成を謳っていますが、実際には一貫性が10秒も持たないという実用上の課題があるとのこと。Pikaframesを使って四季の移り変わりを表現した15秒クリップを制作し、この新機能と他の動画生成AIを組み合わせてミュージックビデオ制作にも成功したと記事は伝えています。

フレーム制御がもたらすAI動画制作の新時代

Pikaframesの5フレーム制御機能は、AI動画制作において大きなブレイクスルーだと感じます。これまでのAI動画生成は「何が出てくるかわからない」というブラックボックス的な要素が強く、特に長尺になるほど制御が難しくなっていました。でも今回のアップデートは、まるで映画の絵コンテのように、重要なシーンを固定点として設定できるようになったわけです。

私自身、以前からAI動画生成を試していますが、思い通りの展開にならないことに何度もフラストレーションを感じていました。期待していたSoraも、記事の指摘通り、10秒以上になると一貫性が崩れていくことが多いんですよね。特に人物が途中で別人になったり、背景が突然変わったりするのは致命的でした。

Pikaframesのアプローチは、ユーザーに適度な制御権を与えつつも、フレーム間の自然な動きはAIに任せるという絶妙なバランスを実現しています。これはちょうど、Stable Diffusionのような画像生成AIで「ControlNet」が登場したときのような革新的な瞬間に思えます。制御と創造性のバランスが取れた新機能は、私たちクリエイターの表現の幅を大きく広げてくれるでしょう。

AI動画生成サービスの差別化戦略から見える未来

記事を読んで興味深かったのは、各社の差別化戦略の違いです。Soraはテキストからの生成能力で注目を集め、Runwayは一貫性の高さ、HeyGenはリップシンク技術、KLINGやHailuoは日本人の表情再現など、それぞれの強みを磨いています。そしてPikaは、かつての機能のような奇抜なアプローチから、今回のフレーム制御という実用的な方向へと舵を切りました。

この動向から見えてくるのは、AI動画生成は「統合」ではなく「専門化」の道を進んでいるということ。1つのAIですべてを完璧にこなすよりも、得意分野に特化したサービスを使い分ける時代になりつつあるように感じます。記事の筆者が複数のAIを組み合わせてミュージックビデオを制作したように、私たちユーザーも「この部分はこのAI」「あの表現はあのAI」という具合に使い分ける知識が求められるでしょう。

また、Pikaframesの登場は、長尺動画市場への本格参入の始まりにも見えます。現在は25秒が限界ですが、この技術が進化すれば、例えば10個のキーフレームから1分の動画、さらには映画のシーン単位まで制御できる日も遠くないかもしれません。AIに"絵コンテ"を指示するだけで、高品質な映像が生成される世界は、もう目の前まで来ています。

AI動画とフレーム補間技術の進化

Pikaframesが実現した複数フレーム間の自然な補間は、実はビデオ制作における重要な技術の一つです。この技術は「フレーム補間」や「トゥイーニング(tweening)」と呼ばれ、アニメーション制作でも長く使われてきました。伝統的なアニメーションでは、熟練したアニメーターが「キーフレーム」と呼ばれる重要な瞬間を描き、その間の動きは別のアニメーターが補完するという分業体制が一般的でした。

AIによるフレーム補間は、この伝統的な手法をデジタルで再現し、さらに進化させたものと言えます。以前は単純に前後のフレームから中間フレームを計算する方法が主流でしたが、現在のAIは物体の動きや形状変化、カメラの動きなどを理解し、よりスムーズで自然な動きを生成できるようになっています。

特に興味深いのは、AIがただ機械的に中間フレームを埋めるだけでなく、文脈を理解して「次に何が起こるべきか」を予測しながら補間している点です。例えば、人が歩いているシーンであれば、人間の歩行の物理的な特性を考慮しながら自然な動きを生成します。このような「理解に基づく生成」は、単なる補間を超えた、次世代のAI動画技術の核心部分と言えるでしょう。

AI音楽制作との融合がもたらす創作革命

記事の中で、筆者がAI動画だけでなくAI音楽制作にも触れている点が非常に興味深いです。ヤマハの「Extrack」アプリでコード進行を解析し、Logic ProのSession Playersと組み合わせる手法は、映像と音楽の両方でAIを活用するクリエイティブワークフローの一例と言えるでしょう。

実際、AI音楽生成も急速に進化しており、単純なバックグラウンドミュージックの生成から、特定の雰囲気や感情を表現した楽曲、さらには歌詞付きの完全なポップソングまで生成できるようになっています。Suno、Udio、MusicLMなど様々なAI音楽生成ツールが登場し、音楽制作の間口を広げています。

映像と音楽、両方のAI技術が融合することで生まれる可能性は計り知れません。例えば、動画の内容や雰囲気に合わせて自動的に音楽を生成したり、逆に音楽のビートや盛り上がりに合わせて動画のシーン展開を調整したりといった相互作用が実現するかもしれません。

クリエイターはアイデアと方向性を示すだけで、技術的な実装はAIが担う時代が近づいているように感じます。この「AI支援型創作」の流れは、個人クリエイターに大きなチャンスをもたらすと同時に、創作のあり方自体を変革していくでしょう。