オープンソースAI動画生成モデル7選|無料で使える最強ツールはどれ?

2026年1月20日 2026年1月20日 動画生成AI

オープンソースAI動画生成モデル7選|無料で使える最強ツールはどれ?

あなたは「無料で使える高品質な動画生成AI」を探していませんか?この記事では、実際に20種類以上のオープンソースAI動画生成モデルをテストした結果から厳選した7つのツールを、具体的な使い分け方とともに詳しく解説します。

この記事はこんな方におすすめです

  • ✅ 動画制作コストを抑えたいクリエイター
  • ✅ AIツールを自由にカスタマイズしたい開発者
  • ✅ 最新のAI技術を試してみたい研究者
  • ✅ SNS用の魅力的な動画コンテンツを作りたいマーケター

目次


この記事のポイント

💡 要点まとめ

  • オープンソースのAI動画生成モデルは急速に進化しており、もはや実験段階ではなく実用レベルに到達しています
  • モデルによって得意分野が異なり、「長尺動画」「高速生成」「映像美」など、目的に応じた使い分けが重要です
  • 完全な制御とローカル実行を求めるなら、多少のセットアップの手間はありますが、オープンソースモデルが最良の選択肢です


はじめに|オープンソースAI動画生成モデルとは?

オープンソースAI動画生成モデルは、もはや研究室の中だけの存在ではありません。現在では、初期の商用システムに匹敵するレベルの動きの滑らかさ、プロンプトへの忠実度、シーンの一貫性を実現しています。

オープンソースモデルの定義

この記事で紹介するモデルは、推論コードや学習済み重みが公開され、ローカル環境で実行できるモデル(オープンソース/オープンウェイト)を指します。

具体例:

  • 推論用のコードが公開されている
  • 学習済みの重みが公開されている
  • ローカル環境での実行が可能

注意:ライセンスはモデルごとに異なります。完全なオープンソースライセンス(Apache 2.0、MITなど)もあれば、独自のライセンスで利用地域や商用利用に条件があるものもあります。利用前に必ず各モデルのライセンスを確認してください。

これらのモデルを使うことで、開発者やクリエイターは以下のことが可能になります。

  • ローカル環境での実行
  • 独自のニーズに合わせたファインチューニング(微調整)
  • カスタムパイプラインへの組み込み

モデル選びの難しさと本記事の価値

正直に言うと、適切なモデルを選ぶのは簡単ではありません

  • ハードウェア要件がモデルごとに大きく異なる
  • 静止画は美しくても、動きがぎこちないモデルがある
  • 滑らかな動画は生成できても、プロンプト通りの内容にならないモデルもある

そこで筆者は、同じプロンプト、同じ参考画像、同じワークフローを使ってこれらのモデルを実際にテストしました。この記事では、各モデルが本当に優れている点と、実際の使用で問題になる点を、包み隠さずお伝えします。

質問者

オープンソースやオープンウェイトって、ChatGPTやSoraのような普通のAIツールと何が違うんですか?

回答者

一番の違いは「自分のパソコンで動かせるかどうか」です。ChatGPTやSoraは企業のサーバーにアクセスして使いますが、オープンソース/オープンウェイトモデルは学習済みのデータ(重み)が公開されているため、自分のパソコンにダウンロードして使えます。インターネットがなくても動作しますし、自分の好みに合わせてカスタマイズすることも可能です。ただし、動かすにはそれなりのスペックのパソコンが必要になります。


おすすめモデル比較表|一目でわかる特徴まとめ

⚠️ モデルは頻繁にアップデートされるため、最新の公式情報をご確認ください

モデル名最適な用途入力形式標準的な解像度VRAM要件の目安
HunyuanVideo映画品質の動画制作テキスト、画像→動画720pバージョンにより大きく異なる(最新版は14GB〜、初期版は80GB)
Mochi 1クリエイティブな表現テキスト、画像→動画480p公式では約60GB推奨
SkyReels V1人物のリアルな表現テキスト、画像→動画720p24GB以上
LTXVideo高速コンテンツ生成テキスト、画像、動画→動画設定により変動12GB
Wan-2.1低予算セットアップテキスト、画像→動画1.3Bモデルは480P推奨1.3Bモデルは8.19GB
OpenSora長尺動画の研究開発テキスト→動画チェックポイントにより変動16〜24GB以上
Pyramid Flow研究・倫理重視テキスト、画像→動画720p16GB
質問者

比較表に「VRAM要件」って書いてありますが、これは何のことですか?私のパソコンで動くかどうか心配です…

回答者

VRAMはGPUの作業用メモリのことです。AI動画生成は大量の計算が必要なので、十分なVRAMが必要になります。例えば、ゲーム用のミドルクラスGPUで8〜12GB、ハイエンドGPUで24GB程度です。もし手元のパソコンのスペックが分からない場合は、まずWan-2.1のような軽量モデルから試すのがおすすめです。


各モデルの詳細レビュー

1. HunyuanVideo|映画品質を求めるならこれ一択

どんなモデル?

HunyuanVideoは、Tencentが開発した大規模オープンソース動画生成モデルです。2024年末に初版がリリースされ、2025年11月にはより軽量なバージョン1.5が登場しました。アーキテクチャの特徴は以下の通りです。

  • 3D VAE(変分オートエンコーダー): 動画を効率的に圧縮
  • マルチモーダル言語エンコーダー: 時間軸を通じて意味構造を保持

💡 他のモデルとの違い
初期のオープンソースモデルが短いクリップや視覚的な目新しさに焦点を当てていたのに対し、HunyuanVideoは長尺動画の一貫性を重視して設計されています。トレーニングでは以下の点が強化されています。

  • 時間的な安定性
  • カメラの連続性
  • フレーム間でのオブジェクトの持続性

⚠️ バージョンによりハードウェア要件が大きく異なる 初期バージョンは企業グレードのハードウェアが必要でしたが、バージョン1.5では大幅に軽量化され、消費者向けGPUでも動作可能になりました。

メリット

  • 優れた長期的時間一貫性: 長いシーンでも破綻しない
  • 高いプロンプト忠実度: シーン全体で指示に忠実
  • 安定したカメラワークとフレーミング: プロレベルの映像
  • 充実したエコシステム: DiffusersやComfyUIに対応

デメリット

  • バージョンにより要件が異なる: 初期版は非常に高いVRAM要件、最新版はより現実的
  • 遅い反復サイクル: 試行錯誤に時間がかかる
  • 複雑なセットアップ: 技術的知識が必須

実際に使ってみた評価

複数のモデルを並べて比較テストした結果、HunyuanVideoは一貫して最も「完成度の高い」動画を生成しました。

  • シーンが途中で劣化しない
  • オブジェクトが認識可能なまま維持される
  • 動きが物理法則に従い、ジッターやループが発生しない

特に優れているのは物語の連続性です。 時間経過とともに展開するシーンを記述すると、HunyuanVideoはその構造を尊重する可能性が高くなります。

トレードオフは速度とコストです。反復は遅く、実験にはコストがかかります。しかし、映画品質の出力が目標で、ハードウェアに余裕があるなら、現在利用可能な最強のオープンソースオプションです。

料金

重みは無料で入手可能 ただし、Tencent Hunyuan Community Licenseという独自ライセンスで、以下の条件があります。

  • 利用地域の制限(EU、英国、韓国では利用不可)
  • 月間アクティブユーザー1億人以上の場合は別途ライセンスが必要
  • 軍事目的などの用途制限あり

必ず公式ライセンス条項を確認してください。 公式の学習済みモデルとドキュメントは、TencentのGitHubおよびHugging Faceで入手可能です。

2. Mochi 1|クリエイティブ表現の自由度が魅力

どんなモデル?

Mochi 1は、Genmo AIがリリースした100億パラメータの動画生成モデルです。非対称拡散トランスフォーマーアーキテクチャを採用しており、リアリズムの最大化よりも制御性とクリエイティブな表現範囲を重視しています。

💡 設計思想の違い
Mochi 1の特徴は、スタイルのバリエーションとプロンプトへの応答性に焦点を当てたトレーニングです。また、LoRA(Low-Rank Adaptation)ベースのファインチューニングをサポートしているため、特定のビジュアル言語やニッチな用途にモデルを適応させたいクリエイターにとって魅力的です。

Mochiは、HunyuanVideoとは異なる哲学を反映しています。より低い解像度を受け入れる代わりに、より速い反復とより広いクリエイティブの自由を提供します。

メリット

  • 品質とハードウェアニーズのバランスが良い: 現実的なスペックで動作(最適化時)
  • スタイライズドプロンプトへの優れた応答: アーティスティックな表現に強い
  • ファインチューニングワークフローをサポート: カスタマイズ可能
  • より速い推論: 大型モデルより高速

デメリット

  • 解像度が480pに制限: 高解像度出力は不可
  • 複雑なシーンでは動きが崩れる: 限界がある
  • 安定した結果を得るには実験が必要: 試行錯誤が必要
  • 公式VRAM要件は高め: 約60GB(最適化で削減可能)

実際に使ってみた評価

Mochi 1は、プロダクションエンジンというより、クリエイティブな楽器のような感覚です。

抽象的またはスタイライズされたプロンプトに対しては優れたパフォーマンスを発揮します。しかし、シーンが複雑になったり、リアリスティックになったりすると、限界が現れます。

こんな方におすすめ:

  • 🎨 洗練よりも探索を重視するアーティストやデザイナー
  • 📹 実験的な映像表現を追求したいクリエイター

映画品質や商業用途の場合は、慎重なキュレーションが必要です。

料金

完全無料のオープンソース GitHubおよびHugging Faceでトレーニングスクリプトとともに利用可能です。

3. SkyReels V1|人物表現のリアリズムに特化

どんなモデル?

SkyReels V1は、HunyuanVideoをベースにしたコミュニティ主導のファインチューンモデルで、映画やテレビ映像を使って特別にトレーニングされています。主な焦点は人間のリアリズムです。

  • 顔の表情
  • ジェスチャー
  • 姿勢
  • カメラフレーミング

広範なカバレッジではなく、SkyReelsは領域を絞り込んでいます。一般性を犠牲にして、キャラクター主導のシーン、特に対話や感情表現でのパフォーマンスを向上させています。

メリット

  • 高品質な顔のアニメーション: 表情が自然
  • 自然な身体の動き: 動作がリアル
  • 強力な映画的構図: プロレベルのフレーミング

デメリット

  • 高いハードウェア要件: 24GB以上のVRAM必須
  • 狭いユースケース: 人物中心のシーンに限定
  • 小規模なエコシステム: コミュニティサポートが限定的

実際に使ってみた評価

人間中心のシーンでは、SkyReelsは汎用モデルよりも明らかに優れた結果を生み出します。顔は安定しており、表情は偶然ではなく意図的に感じられます。

限界はスコープです。人間のストーリーテリング以外では、その利点は減少します。これは専門ツールであり、汎用ツールではありません。

4. LTXVideo|スピード重視の実用派モデル

どんなモデル?

LTXVideoは、Lightricksが開発した速度と効率に最適化された拡散ベースの動画モデルです。最大のリアリズムよりも高速生成を優先しています。

💡 対応する入力形式が豊富

  • テキスト→動画
  • 画像→動画
  • 動画→動画

これらの柔軟性により、反復的なコンテンツ作成パイプラインに適しています。

⚠️ 2026年1月初めにLTX-2がリリースされました LTX-2は4K対応、音声同期生成などの大幅な機能拡張が行われた新バージョンです。初期のLTX-Videoよりも大幅に性能が向上しています。

メリット

  • 非常に高速な生成: 待ち時間が短い
  • 適度なハードウェア要件: 12GBのVRAMで動作
  • 柔軟な入力モード: 様々なワークフローに対応

デメリット

  • 初期バージョンは解像度に制限: より高解像度が必要な場合は新バージョンを検討
  • 限られたシーンの複雑性: 凝った表現は苦手

実際に使ってみた評価

実際のテストでは、LTXVideoはショーケースモデルというより、プロダクションユーティリティのように振る舞います

その決定的な強みは、ビジュアルの野心ではなくワークフローの信頼性です。同じプロンプトで繰り返し実行する場合—ペーシング、フレーミング、または被写体の強調を調整する場合—モデルは迅速かつ予測可能に応答します。

モーションクオリティはシンプルですが安定しています。 短いクリップが崩れることはめったになく、時間的なアーティファクトは限定的です。これは、実際のコンテンツパイプラインではピーク忠実度よりも重要です。

こんな用途に最適

  • SNS用動画
  • プレビュー映像
  • 高速実験が必要な場面

シーンが複雑さを要求すると、限界が現れます。カメラの動きは平坦になりがちで、深度は限定的、長いシーケンスは視覚的な興味を維持するのに苦労します。映画的なストーリーテリングでは、天井が明らかになります。しかし、それはこのモデルのポイントではありません。

反復速度、運用の一貫性、既存パイプラインへの統合を優先するなら、LTXVideoは現在利用可能な最も実用的なオープンソース選択肢の1つです。

料金

重みは無料で入手可能 ただし、独自のライセンス(Open Weights LicenseまたはLTX-2 Community License Agreement)で、以下の条件があります。

  • 年間売上1,000万ドル以下の企業は商用利用無料
  • それ以上の企業は商用ライセンスが必要
  • その他の用途制限あり

必ず公式ライセンス条項を確認してください。 唯一のコストは、ローカルまたはセルフホスト環境でモデルを実行する際のGPUインフラストラクチャです。

5. Wan-2.1|コンシューマーGPUで動く最強の選択肢

どんなモデル?

Wan-2.1は、Alibabaの研究チームが開発した軽量オープンソースモデルです。消費者向けGPUで動作しながら、許容可能な動きの品質を維持するように明示的に設計されています。

💡 モデルバリエーション

  • T2V-1.3B: 8.19GB VRAMで動作、480P推奨(720Pも可能だが不安定)
  • T2V-14B: より高品質、480Pと720Pの両方で安定動作

メリット

  • 1.3Bモデルは8.19GBのGPUで動作: 低スペックPCでもOK
  • サイズの割に滑らかな動き: 品質とコストのバランスが良い
  • シンプルなデプロイ: セットアップが簡単
  • 複数のモデルサイズ: 用途に応じて選択可能

デメリット

  • 限られた映画的深度: 表現の幅は狭め
  • 1.3Bモデルは480P推奨: 720Pは可能だが不安定
  • 高解像度には14Bモデルが必要: より高いVRAM要件

実際に使ってみた評価

Wan-2.1は、テストしたすべてのモデルの中で最高の品質対ハードウェア比を実現しています。

特に1.3Bモデルは、8.19GBのVRAMで480P動画を生成でき、そのサイズに対して期待以上に滑らかな動きと、より少ない時間的なグリッチを一貫して生成します。

画像→動画のパフォーマンスが特に優れています

  • 背景のドリフト
  • 光の変化
  • 小さなキャラクターの動き

これらの微妙な動きが、制御され自然に感じられます。

テキスト→動画の結果はより保守的ですが、シーン構造は通常、大きな崩壊なしに保たれます。

トレードオフは視覚的な深度です。 Wan-2.1がドラマチックなカメラワークや豊かな映画的構図を生み出すことはめったにありません。シーンは安全で抑制的に感じられます。また、1.3Bモデルで720Pを生成することは技術的に可能ですが、480Pと比較して不安定です。

しかし、ハイエンドハードウェアにアクセスできない個人クリエイターや小規模チームにとって、この制限は妥当です。

消費者向けハードウェアで確実に動作し、それでも使用可能な動画を提供するモデルが必要な場合、Wan-2.1は現在最も信頼できるオプションです。

料金

Alibabaによる無料オープンソースモデル 現在のライセンスの下では、サブスクリプション費用や商業利用料金はありません。

6. OpenSora|長尺動画研究のためのプラットフォーム

どんなモデル?

OpenSoraは、OpenAIのSoraで実証されたアイデアに触発されたオープンソースイニシアチブですが、透明性と再現性を第一級の目標として構築されています。

単一の洗練された製品ではなく、OpenSoraは大規模拡散モデルがテキストプロンプトからより長く、より一貫性のある動画を生成する方法を探求する研究主導のエコシステムです。

💡 OpenSoraの焦点

  • 時間的一貫性
  • 空間的推論
  • シーンの持続性

これらは、初期のオープンソース動画モデルが苦労していた領域です。

プロジェクトは、トランスフォーマーベースの動画拡散、大規模データセット、分散トレーニング技術を実験して、短いループ状のクリップを超えて、物語の連続性を持つ構造化されたシーケンスに向けて前進しています。

OpenSoraの位置づけ
OpenSoraは、すぐに使えるクリエイターツールではなく、基盤モデルおよび研究プラットフォームとして理解するのが最適です。これは、UIを通じて単にクリップを生成するのではなく、最先端のテキスト→動画システムを研究、拡張、または構築したい開発者、研究者、チームを対象としています。

メリット

  • 完全なオープンソース: コードと論文が公開
  • 長期的な時間構造に強い焦点: 連続性を重視
  • 研究、拡張、実験向けに設計: カスタマイズ可能
  • 活発なコミュニティ貢献と迅速な反復: 進化が速い

デメリット

  • 重い計算要件: トレーニングと推論の両方で
  • 出力品質がチェックポイントによって大きく異なる: 一貫性に欠ける
  • カジュアルクリエイターや非技術ユーザー向けに最適化されていない: 敷居が高い
  • セットアップとチューニングにML工学の経験が必要: 技術的知識必須

実際に使ってみた評価

実際のテストから、OpenSoraはクリエイター向けビデオツールとは根本的に異なると感じます。複雑さを隠そうとはしません。代わりに、大規模動画生成に関わるトレードオフを露出させます。

  • メモリ使用量
  • サンプリング時間
  • プロンプト感度
  • 時間的ドリフト

OpenSoraが際立っているのは、その野心です。 短く、視覚的に心地よいが脆弱なクリップを生成する初期のオープンソースビデオモデルと比較して、OpenSoraは時間を第一級の次元としてモデル化する明確な試みを行っています。うまく機能すると、シーンはリセットするのではなく進化し、動きは偶然ではなく計画的に感じられます。

⚠️ ただし、結果は慎重なチューニングなしでは一貫していません。
プロンプトの言い回し、サンプリングステップ、解像度の選択が出力に大きな影響を与えます。実用的には、OpenSoraは今日コンテンツパイプラインに組み込むものではありません。将来のビデオシステムを探求しているチームや、オープンソースがプロプライエタリモデルにどれだけ近づけるかをベンチマークしている開発者に適しています。

こんな方におすすめ

  • 学習、研究、カスタムビデオワークフローの構築が目的
  • 最先端の動画生成技術を追跡したい

スピードや信頼性が目標の場合、より製品化されたツールの方が使いやすいでしょう。

料金

完全無料のオープンソース ライセンス費用はありませんが、モデルを実行するには相当なGPUリソースが必要であり、大規模に展開する場合はインフラストラクチャコストが発生します。

7. Pyramid Flow|透明性と倫理性を重視した研究モデル

どんなモデル?

Pyramid Flowは、完全にオープンなデータセットでトレーニングされた自己回帰型動画モデルです。その設計は透明性と再現性を優先しています。

メリット

  • 倫理的なデータセット: トレーニングデータが明確
  • 明確な研究焦点: 学術的な信頼性

デメリット

  • 速度に最適化されていない: 生成に時間がかかる

実際に使ってみた評価

Pyramid Flowは、このリストのほとんどのモデルとは根本的に異なると感じます。自己回帰型アーキテクチャから透明なデータセット選択まで、研究優先の考え方で構築されています。この意図は、長所と短所の両方に明確に現れています。

テストでは、Pyramid Flowは中程度の長さのクリップにわたって一貫した動きを生成し、同様の規模の多くのモデルよりも拡散関連のアーティファクトが少なくなっています。動きは構造化され意図的に感じられ、特に急激な変化ではなく段階的な遷移を伴うシーンで顕著です。

ただし、ワークフローは速度や使いやすさに最適化されていません。セットアップには技術的な知識が必要で、推論はコンテンツ制作向けに設計されたモデルよりも遅くなります。これにより、マーケティングやソーシャルワークフローでの魅力が制限されます。

Pyramid Flowが優れているのは信頼性です。 トレーニングデータ、方法論、制限が明確に文書化され、監査可能なモデルが必要な場合、これはオープンソース動画生成における数少ない強力なオプションの1つです。

料金

MITライセンスでリリース すべてのコード、重み、データセットは無料で利用可能で、使用または商業的制限はありません。


テスト方法|どうやって評価したのか

筆者は20種類以上のオープンソース動画モデルをテストし、このリストを7つに絞り込みました。

テストしたワークフロー

  1. テキスト→動画プロンプト: テキストからの動画生成
  2. 画像→動画アニメーション: 静止画を動画化
  3. シーン一貫性: 長いシーンでの安定性
  4. 動きの安定性: 動作の滑らかさ

評価基準

  • 視覚品質
  • プロンプトの正確性
  • 処理速度
  • ハードウェアニーズ
  • コミュニティサポート

公平な比較のために、同じプロンプトとクリップをすべてのモデルで実行し、違いを分離しました。

業界動向と今後の展望

オープンソースAI動画は急速に進化しています

現在のトレンド

  1. 大手研究所がベースモデルをリリース
  2. コミュニティがファインチューンを生産
  3. ハードウェア効率が向上
  4. マルチモーダルパイプラインが標準に

今後の予測

今後、以下の進化が期待されます。

  • より良い動き: 動作の質が向上
  • より長いクリップ: 生成可能な長さが増加
  • より低いVRAM要件: より多くの人が利用可能に
質問者

7つもモデルがあって、どれを選べばいいか全然分かりません…結局どうやって決めればいいんでしょうか?

回答者

まずは「何を作りたいか」から考えましょう。YouTubeやSNS用の短い動画なら高速生成のLTXVideo、映画のような高品質な動画ならHunyuanVideo、予算を抑えたいならWan-2.1がおすすめです。最初から完璧なモデルを選ぶ必要はありません。まずは軽量なモデルで試してみて、物足りなくなったらより高性能なモデルに移行する、というステップが現実的です。


あなたに最適なモデルの選び方

用途別おすすめモデル

予算が限られた個人クリエイター

Wan-2.1 8GBのGPUで動作し、コストパフォーマンス最強

スタジオやスタートアップ

HunyuanVideo 映画品質を求めるプロフェッショナル向け

SNS・マーケティング用途

LTXVideo 高速生成で大量のコンテンツ制作に対応

アーティスト・実験的表現

Mochi 1 クリエイティブな自由度を重視

研究者・開発者

Pyramid Flow または OpenSora 透明性と拡張性を重視

初心者

Sora(商用サービス) まずは簡単なものから始めたい方に

💡 ポイント

実際に本格導入する前に、必ず小規模でテストしてください。小さな違いが、実際の運用では大きな影響を与えます。


よくある質問(FAQ)

Q1. オープンソースAI動画モデルとは何ですか?

A. テキストや画像から動画を生成するモデルで、コードと学習済みの重みが公開されているものを指します。これにより、誰でも自由にダウンロードして使用、カスタマイズできます。

Q2. オープンソースAI動画モデルは無料ですか?

A. はい、モデル自体は無料です。ただし、実行するためのハードウェア(GPUなど)のコストは別途必要です。ライセンス料や使用料は発生しません。

Q3. 強力なGPUは必要ですか?

A. モデルによって異なります。

  • 低スペックでOK: 一部のモデル(Wan-2.1など)は8〜12GBのVRAMで動作
  • ハイスペック必須: 他のモデル(HunyuanVideo初期版など)は企業グレードのGPU(80GB)が必要でしたが、最新版は大幅に軽量化されています

Q4. 映画品質の動画に最適なモデルはどれですか?

A. HunyuanVideoSkyReels V1がおすすめです。

  • HunyuanVideo: 長尺動画の一貫性と映画的構図に優れる
  • SkyReels V1: 人物表現とキャラクター主導のシーンに特化

Q5. これらのモデルは商用利用しても安全ですか?

A. 各モデルのライセンスを確認してください。多くは商用利用を許可していますが、一部は制限があります。必ず公式ドキュメントで最新のライセンス条項を確認することをおすすめします。

Q6. これらのモデルは今後どう変化しますか?

A. 以下の進化が予想されます。

  • より長い動画の生成
  • より良い動きの品質
  • より低いハードウェア要件

技術の進歩により、より多くの人が高品質な動画生成AIを利用できるようになるでしょう。

この記事の著者

Runbo Liのプロフィール写真

Runbo Li

Magic Hour共同創業者兼CEO。Y Combinator採択歴を持つ起業家。

AI動画生成プラットフォーム「Magic Hour」の共同創業者兼CEO。Y CombinatorのWinter 2024バッチに採択された実績を持つ起業家である。Meta(旧Facebook)ではデータサイエンティストとして、新規プロダクト開発部門「New Product Experimentation(NPE)」にて0→1のコンシューマー向けソーシャルプロダクトの開発に従事した経験を有する。

この記事は著者の許可を得て公開しています。

元記事:Best Open Source AI Video Generation Models

この記事の監修・コメント

池田朋弘のプロフィール写真

池田朋弘(監修)

Workstyle Evolution代表。18万人超YouTuber&著書『ChatGPT最強の仕事術』は4万部突破。

株式会社Workstyle Evolution代表取締役。YouTubeチャンネル「いけともch(チャンネル)」では、 AIエージェント時代の必須ノウハウ・スキルや、最新AIツールの活用法を独自のビジネス視点から解説し、 チャンネル登録数は18万人超(2025年7月時点)。

主な著書:ChatGPT最強の仕事術』、 『Perplexity 最強のAI検索術』、 『Mapify 最強のAI理解術』、 『Gemini 最強のAI仕事術

合わせて読みたい
関連記事

公式LINEで最新ニュースをゲット

LINE登録の無料特典
LINE登録の無料特典
icon

最新のAIニュース
毎週お届け

icon

生成AIの業務別の
ビジネス活用シーン

がわかるAIチャット

icon

過去のAIニュースから
事実を確認できる
何でもAI相談チャット

icon

ニュース動画
アーカイブ

ページトップへ