FramePack Studioをインストールしたのに、CUDAエラーが出て動画生成ができない。
cu128で落ちる、cu126にすべきか分からない、No CUDA GPUs are available と表示される、CUDA out of memory が出る。
こうしたエラーは、環境が壊れているのではなく、Torch・NVIDIA Driver・GPUメモリの整合が崩れているだけであることがほとんどです。
本記事では、FramePack Studioで発生するCUDAエラーを
- cu128 / cu126のバージョン不一致
- NVIDIA Driverの不整合
- GPU未認識問題
- VRAM不足(CUDA out of memory)
の順に切り分け、原因を特定する具体的手順を解説します。
上から順番に確認すれば、ほとんどの環境は安定します。
焦らず、1つずつ整理していきましょう。
【Windows対応】FramePack Studioのインストール方法|AI動画をローカル生成する完全手順
結論|CUDAエラーの原因は「バージョン不一致」
FramePack Studioで発生するCUDAエラーの多くは、TorchのCUDAバージョンと環境の不一致が原因です。
特に、
例
- cu128でエラー
- cu126に変更すると解決
- NVIDIA Driver未更新
といったケースが非常に多く見られます。
慌てずに、以下の手順で順番に確認していきましょう。
よくあるCUDAエラーの症状一覧
FramePack Studioで発生するCUDA関連エラーは、表示メッセージによって原因の方向性がある程度特定できます。
まずは、実際によく見られるエラーとその意味を整理します。
RuntimeError: CUDA error: device-side assert triggered
症状
- 動画生成開始直後に停止
- 黒い画面にRuntimeErrorが表示される
- 以降、再実行しても同様のエラーが出る
主な原因
- TorchのCUDAバージョン不一致
- ドライバとTorchの整合性問題
- モデル読み込み失敗
このエラーは「GPU内部で処理が失敗した」ことを示します。
多くの場合、cu128 / cu126の不一致が原因です。
Torch not compiled with CUDA enabled
症状
- 起動直後にエラー
- GPUを使用せずCPUモードになる
- 生成が極端に遅い
主な原因
- CPU版Torchがインストールされている
- CUDA対応Torchが入っていない
この場合、CUDA付きTorchを再インストールする必要があります。
No CUDA GPUs are available
症状
- run.bat実行時に表示
- GPUが認識されていない
主な原因
- NVIDIA Driver未インストール
- ドライバが古い
- GPUが無効化されている
- リモートデスクトップ経由で実行している
まずは nvidia-smi が動作するか確認します。
CUDA out of memory
症状
- 生成途中で停止
- 解像度を上げた時に発生
- VRAM使用率が100%に近い
主な原因
- VRAM不足
- 解像度が高すぎる
- 同時アプリがGPUを占有
この場合は、解像度やフレーム数を下げることで解決することが多いです。
symlink not supported や huggingface warning
症状
- 起動時に黄色の警告が出る
- しかし動作自体は可能
主な原因
- Windows環境特有の警告
- シンボリックリンク未対応
これはエラーではありません。
無視して問題ありません。
localhost:7860が開かない
症状
- ブラウザが接続できない
- 黒い画面にエラーログが出ている
主な原因
- CUDA初期化失敗
- Torch不整合
- VRAM不足
表面上は「起動しない」ですが、実際は内部でCUDAエラーが原因のケースが多いです。
TorchとCUDAバージョン不一致(cu128 / cu126問題)
スポンサーリンク
FramePack StudioのCUDAエラーで最も多い原因が、「Torch(PyTorch)側が使おうとしているCUDAランタイムと、あなたのPC環境(主にNVIDIAドライバ側)が提供できるCUDA実行環境のズレ」です。
ここを押さえると、「なぜcu128で落ちてcu126で動くのか」「どれを選べばいいか」が一気に整理できます。
cu128 / cu126とは何か?
u128 / cu126 は、ざっくり言うと
- cu128版Torch=CUDA 12.8系の実行環境を前提にビルドされたTorch(CUDA関連ライブラリを同梱)
- cu126版Torch=CUDA 12.6系を前提にビルドされたTorch(同梱)
という「Torchパッケージの種類」です。
重要なのは、WindowsでFramePackを動かす場合、TorchはCUDAツールキットを別途入れなくても動くことが多い点です。
(インストール記事でCUDA不要だったのはこの理由。必要なのは主にNVIDIAドライバと、対応したTorch。)
つまり問題は「CUDAを入れたかどうか」ではなく、
Torchが「同梱」しているCUDAランタイムと、ドライバが対応している範囲が噛み合っているか
ここです。
なぜ不一致が起きるのか
CUDA周りは、役割が2階建てです。
- NVIDIA Driver(ドライバ):GPUをOSから使えるようにする土台。CUDA実行に必要な低レイヤを担当。
- orch(cuXXX):その土台の上で動く計算エンジン。Torch側はCUDA関連ライブラリを「同梱」してくる。
この2つは別々に更新されます。
その結果、
- orch(cu128)を入れた
- でもドライバ側が古い/相性が悪い/環境が噛み合っていない
→ 初期化や計算のタイミングで落ちる
というズレが起きます。
cu128で落ちてcu126で動く理由
よくあるのがこのケースです。
- cu128を入れる
- 起動はするが生成開始で落ちる/CUDA errorが出る
- cu126に落とすと安定する
これは、cu128が要求する条件(ドライバや内部ライブラリ整合)が、あなたの環境だとギリギリで崩れているときに起こります。
cu126は要求条件が少し緩く、互換の“当たり”を引きやすい。
だから「まずcu126を選ぶと安定しやすい」という判断が現場的に強いです。
どっちを選ぶべきか?
結論としては、次の優先順位が堅いです。
- 基本はcu126:安定性優先。FramePackの導入で詰まりにくい。
- cu128は“環境が新しく安定している人向け”:最新ドライバ+周辺依存も問題が出ない場合。
つまり、
生成が止まる/起動できない/CUDA errorが出る
→ まずcu126へ寄せる
が最短ルートです。
この症状なら「cu」不一致を疑うチェックリスト
次に当てはまるなら、まずcu128/cu126の不一致・相性問題を疑いの可能性ありです。
チェック
- Torch not compiled with CUDA enabled(CPU版Torchが入っている可能性)
- No CUDA GPUs are available(ドライバ未整備 or 認識不良の可能性もあるが、Torch側問題のこともある)
- RuntimeError: CUDA error: device-side assert triggered
- CUDA error が生成開始直後に出る
- localhostは開くが、生成開始で落ちる
要点整理
ここでの最適手順は「切り分けの順番」を守ることです。
- まずTorchのcuを揃える(cu126へ)
- まだダメなら ドライバを更新
- それでもダメなら GPU認識(nvidia-smi)やVRAM不足へ
逆に、最初からあれこれ触ると原因が分からなくなります。
FramePack Studioで発生するCUDAエラーの多くは、Torch(PyTorch)が使用するCUDAランタイムと、PC環境(特にNVIDIAドライバ)の整合が取れていないことが原因です。
重要なポイントは次の3つです。
POINT
- CUDAツールキットを別途入れていなくても動作するケースが多い
- しかし、Torchのcuバージョン(cu128 / cu126)と環境が噛み合わないとエラーになる
- 不安定な場合は、まずcu126へ切り替えて検証するのが有効
エラーが出た場合は、闇雲に設定を変更するのではなく、まずこの「バージョン整合」の観点から確認することが重要です。
スポンサーリンク
Torchを再インストールしてCUDAバージョンを揃える方法
CUDAエラーの多くは、Torch(PyTorch)のCUDAバージョンと環境の不一致が原因です。
ここでは、Torchを正しいCUDAバージョンで入れ直す具体的手順を解説します。
作業は必ず、FramePack Studioを終了した状態で行ってください。
現在のTorch環境を確認する
ターミナル(PowerShell / コマンドプロンプト)を開き、FramePack Studioのフォルダへ移動します。
cd C:\AI\framepack-studio
仮想環境を使用している場合は、仮想環境が有効な状態で実行してください。
現在のTorchバージョンを確認します。
pip show torch
CUDA付きTorchの場合、バージョン名に 「+cu128」などが表示されます。
例: Version: 2.x.x+cu128
ここで、現在何が入っているかを確認します。
Torchをアンインストールする
まず既存のTorch関連パッケージを削除します。
pip uninstall torch torchvision torchaudio -y
念のため、もう一度実行して完全に削除されていることを確認します。
安定版としてcu126をインストールする
安定性重視で、まずはcu126版を入れます。
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu126
インストールが完了したら、再度確認します。
pip show torch
「+cu126」と表示されれば成功です。
GPUが正しく認識されているか確認する
次に、PythonからCUDAが有効か確認します。
python -c "import torch; print(torch.cuda.is_available())"
「True」と表示されれば、CUDAが正しく有効化されています。
もし「False」が表示される場合は、Driver側の問題の可能性があります。
それでも解決しない場合の考え方
- cu128でエラー → cu126で再検証
- cu126でもエラー → NVIDIA Driverを確認
- GPU自体が認識されない → nvidia-smi を確認
重要なのは、一度に複数の設定を変えないことです。
Torchのバージョンを揃えてから、次の原因へ進みます。
TorchはCUDAランタイムを内部に持っています。
そのため、環境と整合しないバージョンが入っていると、
- 起動はするが生成で落ちる
- GPUが使われない
- CUDA errorが出る
といった現象が発生します。
正しいバージョンに揃えることで、GPU初期化の不整合が解消されます。
なぜNVIDIA Driverの不整合でCUDAエラーが起きるのか
スポンサーリンク
TorchのCUDAバージョンを揃えてもエラーが解消しない場合、次に疑うべきなのが NVIDIA Driver(グラフィックドライバ)との不整合です。
CUDAエラーは、単に「バージョンが古いから起きる」のではありません。
より正確には、
Torch(cuXXX)とDriverの“対応範囲”が一致していないと、GPU初期化や計算時に失敗する
これが本質です。
CUDAは2階建て構造
CUDA環境は、次のような2階建て構造で動いています。
- NVIDIA Driver(低レイヤー):GPUをOSから制御する土台。CUDAの実行を可能にする。
- Torch(cuXXX付きパッケージ):CUDAライブラリを内部に持ち、Driverの上で動作する。
TorchはCUDAを同梱していますが、その実行は最終的にDriverを通して行われます。
つまり、
- Torchが新しすぎる
- Driverが古い
- Windows UpdateでDriverが部分破損している
といった状態では、初期化段階で整合が取れずエラーになります。
なぜ「古いDriver」で新しいcuが動かないのか
Torchのcu128版は、CUDA 12.8系の実行を前提にビルドされています。
しかしDriverがそれ以前の世代や、互換範囲外の場合、
- GPUメモリ管理API
- カーネル実行インターフェース
- デバイス初期化処理
のどこかで整合が取れず、
RuntimeError: CUDA error
といった形で失敗します。
重要なのは、
CUDAツールキットを入れているかどうかではなく、Driverが対応しているかどうか
という点です。
古いだけでなく「不整合」でもエラーは起きる
実際には、単純な「古い」だけが原因ではありません。
次のようなケースでもCUDAエラーは発生します。
- Windows UpdateでDriverの一部が置き換わった
- Game ReadyとStudio Driverを頻繁に切り替えた
- クリーンインストールせず上書き更新を繰り返した
- GPUドライバが正常に読み込まれていない
この状態では、
- torch.cuda.is_available() が False になる
- nvidia-smi は動くが生成で落ちる
- 初期化時のみエラーが出る
といった曖昧な症状が発生します。
cu126で安定しやすい理由
なぜcu126にすると安定することが多いのか。
cu126は、cu128より要求条件がわずかに緩く、互換性が広い傾向があります。
そのため、
- Driverが完全最新でなくても動作する
- 微妙な不整合を回避できる
結果として「cu126にしたら動いた」という現象が起きます。
これは偶然ではなく、「より広い互換範囲に収まった」ということです。
Driver不整合を疑うべきタイミング
次の状況では、Driver側を疑うのが妥当です。
- cu126でもエラーが出る
- Torch再インストール後も変化なし
- torch.cuda.is_available() が False
- 以前は動いていたのに突然エラーが出た
特に「突然動かなくなった」場合は、Windows UpdateやDriver更新の影響が多いです。
本質のまとめ
CUDAエラーは、
- Torch(cuXXX)
- NVIDIA Driver
- GPUハードウェア
この3つの整合が取れて初めて正常動作します。
Torchだけ揃えても、Driverが崩れていれば失敗します。
逆に、Driverが正常であれば、適切なcuバージョンを選ぶことでほとんどの問題は解決します。
NVIDIA Driverが正常かどうかを確認する方法
TorchのCUDAバージョンを揃えてもエラーが解消しない場合、次に確認すべきはNVIDIA Driverの状態です。
ここでは、
- GPUがOSに正しく認識されているか
- Driverが正常に動作しているか
- Driverが古すぎないか
を順番に確認します。
スポンサーリンク
nvidia-smiが正常に動作するか確認(最重要)
まず最初に行うべき確認が「nvidia-smi」です。
ターミナルで以下を実行します。
nvidia-smi
正常な場合
- GPU名(例:RTX 3060)が表示される
- Driver Version が表示される
- CUDA Version が表示される
- メモリ使用量が表示される
例: +-----------------------------------------------------------------------------+ | NVIDIA-SMI 551.xx Driver Version: 551.xx CUDA Version: 12.x | | GPU Name ... | +-----------------------------------------------------------------------------+
この画面が出れば、DriverはOSに正しく読み込まれています。
異常な場合
以下のいずれかが出る場合はDriverに問題があります。
- ‘nvidia-smi’ is not recognized
- コマンドが見つからない
- エラーで終了する
- GPUが表示されない
この場合は、Driverの再インストールを検討します。
PythonからCUDAが有効か確認
次に、Torch側からCUDAが見えているかを確認します。
python -c "import torch; print(torch.cuda.is_available())"
結果が:
- True → DriverとTorchの連携は成立している
- False → DriverまたはTorchのどちらかが正常でない
「nvidia-smi」は動くのに「False」になる場合、DriverとTorchの整合が崩れている可能性があります。
Driverバージョンを確認
「nvidia-smi」の表示内にある
Driver Version: xxx.xx
を確認します。
Driverを1年以上更新していない場合や、Windows Update後からエラーが出た場合は、更新を検討します。
RTX30シリーズ以降を使用している場合、古いDriverでは不安定になることがあります。
Driverをクリーンインストールする方法
Driver更新を行う場合は、必ず公式サイトから取得します。
- NVIDIA公式サイトへアクセス
- GPU型番を選択
- OS(Windows 10 / 11)を選択
- Game Ready Driverを選択
インストール時に「クリーンインストール」にチェックを入れると、古い設定が削除されます。
これにより、破損や設定競合をリセットできます。
ノートPC・複数GPU環境の注意点
ノートPCや複数GPU環境では、次の点も確認します。
- 統合GPU(Intelなど)が優先されていないか
- NVIDIA GPUが電源管理で無効化されていないか
- BIOSでGPUが無効になっていないか
デスクトップ環境では通常発生しませんが、ノート環境ではよくある原因です。
切り分けの最終判断
以下の状態なら、Driverは正常と判断できます。
- nvidia-smi が正常表示される
- torch.cuda.is_available() が True
- GPU名が一致している
ここまで確認して問題がない場合、Driverではなく
- Torchの再構築
- 仮想環境の破損
- VRAM不足
を疑います。
GPUが認識されていない場合
Torchを入れ直し、NVIDIA Driverも正常なのにCUDAエラーが出る場合、次に疑うべきは GPU自体が正しく認識されていない状態 です。
GPU認識は、次の3段階で成立します。
- OSがGPUを認識している
- NVIDIA DriverがGPUを制御できている
- TorchがGPUをCUDAデバイスとして認識できている
どこで止まっているかを順番に確認します。
デバイスマネージャーでGPUが表示されるか確認
まずWindows側で物理的に認識されているかを確認します。
手順
- スタートを右クリック
- 「デバイスマネージャー」を開く
- 「ディスプレイアダプター」を展開
ここに
NVIDIA GeForce RTX 3060などのGPU名が表示されていれば、OSレベルでは認識されています。
- GPUが正しく挿さっていない
- 補助電源が接続されていない
- BIOSで無効化されている
- ハードウェア故障
の可能性があります。
まずは物理接続を確認します。
nvidia-smiでGPUの表示確認
次にDriverレベルで確認します。
nvidia-smi
ここでGPU名が表示されなければ、Driverが正常に読み込まれていません。
表示はされるがエラーが出る場合は、Driver破損の可能性があります。
Pythonからデバイス数を確認する
次にTorch側でGPUが見えているか確認します。
python -c "import torch; print(torch.cuda.device_count())"
結果が:
- 1 → GPUが1枚認識されている
- 0 → Torchからは見えていない
「nvidia-smi」は動くのに「0」になる場合、TorchのCUDAバージョン不整合や仮想環境破損の可能性があります。
リモートデスクトップ利用時の注意
Windows標準のリモートデスクトップ(RDP)経由で実行すると、GPUが無効化されることがあります。
症状
- nvidia-smiは動く
- しかしTorchはCUDAを使えない
この場合は、
- 直接ログインして実行する
- 別のリモート手段を使用する
ことで改善することがあります。
ノートPCのハイブリッドGPU問題
ノートPCでは、
- Intel内蔵GPU
- NVIDIA外部GPU
の両方が存在します。
NVIDIAが省電力モードで無効化されていると、CUDAが利用できません。
確認方法は、
- NVIDIAコントロールパネル
- 3D設定の管理
- 高パフォーマンスNVIDIAプロセッサを選択
切り分けの最終判断
以下が成立していれば、GPUは正常に認識されています。
- デバイスマネージャーに表示される
- nvidia-smiで表示される
- torch.cuda.device_count() が1以上
どこかで止まっている場合、その層に問題があります。
VRAM不足(CUDA out of memory)エラーの具体的対処
スポンサーリンク
動画生成中に
CUDA out of memory
や
Tried to allocate X GiB
と表示される場合、原因は単純です。
GPUメモリ(VRAM)が足りていません。
しかし重要なのは、なぜ足りないのかを理解することです。
なぜVRAMは不足するのか
RAM使用量は主に次の要素で決まります。
- 解像度(Width × Height)
- フレーム数
- モデルサイズ
- 同時に開いている他アプリ
- 生成中に残留したメモリ
解像度は二乗で効きます。
例:
- 640×640 → 約41万ピクセル
- 1024×1024 → 約104万ピクセル(約2.5倍)
ピクセルが増えると、必要メモリも急増します。
最優先で行うべき対処
① 解像度を下げる
最も効果がある対処です。
推奨テスト値:
- 512×512
- 640×640
- 768×432(横長)
まずは低解像度で安定するか確認します。
② 他のGPU使用アプリを終了する
以下のアプリはVRAMを消費します。
- Chrome(動画再生中)
- ゲーム
- 他のAIツール
- 画像編集ソフト
「タスクマネージャー → パフォーマンス → GPU」
で使用量を確認します。
③ 生成後にメモリを解放する
生成を繰り返すと、VRAMが断片化することがあります。
対処方法:
- FramePack Studioを終了(Ctrl + C)
- 数秒待つ
- 再起動する
これだけで改善するケースは多いです。
それでも足りない場合の調整ポイント
フレーム数を減らす
動画秒数が長いほどメモリを消費します。
まずは5秒程度でテスト。
モデルの変更
大規模モデルはVRAMを多く消費します。
軽量モデルが選べる場合は切り替えを検討します。
RTX3060(12GB)の目安
RTX3060 12GBの場合、
- 640×640 → 安定しやすい
- 768×432 → 安定
- 1024×1024 → 条件次第で不安定
12GBあっても、設定次第で不足します。
技術的な補足
CUDAはメモリを即座に完全解放しない場合があります。
- メモリキャッシュが残る
- Pythonプロセスが保持する
そのため、
- 再起動
- Ctrl + Cで終了
が有効です。
VRAM不足の判断基準
次に当てはまる場合は、VRAM不足と考えてよいです。
- 解像度を下げたら動く
- 生成途中で止まる
- エラー文に「allocate」「out of memory」が含まれる
- GPU使用率が100%に近い
CUDAエラーは大きく4種類に分かれます。
- Torchバージョン不一致
- Driver不整合
- GPU未認識
- VRAM不足
最終チェックリスト(それでも直らない場合)
ここまでの手順をすべて試してもCUDAエラーが解消しない場合、環境そのものが部分的に破損している可能性があります。
以下を順番に確認してください。
スポンサーリンク
仮想環境を削除して再構築する
FramePack Studioは仮想環境(venv)内で動作していることが多いです。
この仮想環境が破損すると、
- Torchを入れ直しても直らない
- 古い依存関係が残る
- 不整合が継続する
といった症状が出ます。
対処方法:
- FramePack Studioを終了
- プロジェクトフォルダ内の venv フォルダを削除
- install.bat を再実行
これで依存関係が初期状態から再構築されます。
Pythonのバージョンが対応範囲か確認
Pythonのバージョンが新しすぎる/古すぎる場合、依存関係が崩れることがあります。
推奨:Python 3.10〜3.12
確認方法:
python --version
想定外のバージョンであれば、対応バージョンへ変更します。
CUDAキャッシュを削除
まれにCUDAキャッシュが原因でエラーが継続します。
以下フォルダを確認します。
C:\Users\ユーザー名\.cache
必要に応じて削除し、再起動します。
Windows Update直後ではないか確認する
Windows Update後にDriverが自動上書きされ、整合が崩れるケースがあります。
直前にUpdateを行った場合は、
- Driverを再インストール(クリーンインストール)
- PC再起動
を試してください。
セキュリティソフトが干渉していないか確認
一部のセキュリティソフトは、
- Python実行
- ローカルサーバー起動
- GPUアクセス
を制限することがあります。
一時的に無効化して動作確認を行います。
物理的なGPU問題の可能性
極めて稀ですが、
- GPUの故障
- 電源不足
- PCIe接触不良
でもCUDAエラーは発生します。
nvidia-smiが不安定な場合はハードウェアも疑います。
最終判断の流れ
以下がすべて正常なら、環境はほぼ問題ありません。
- nvidia-smiが正常
- torch.cuda.is_available() が True
- cu126で再構築済み
- 仮想環境を再生成済み
それでも解決しない場合は、ログ全文を確認し、特定のライブラリ依存問題を疑います。
まとめ|CUDAエラーは順番に切り分ければ必ず原因にたどり着く
FramePack StudioのCUDAエラーは、一見すると難解に見えます。
しかし、原因は大きく次の5つに集約されます。
原因
- TorchのCUDAバージョン不一致(cu128 / cu126問題)
- NVIDIA Driverの不整合や未更新
- GPUが正しく認識されていない
- VRAM不足(CUDA out of memory)
- 仮想環境や依存関係の破損
この順番で確認していけば、ほとんどのケースは解決できます。
焦って全部触らないことが重要。
CUDAエラーが出ると、つい
- Torchを入れ直す
- Driverを更新する
- Pythonを変える
- Windowsを再設定する
と一気に触りたくなります。
しかしそれでは原因が分からなくなります。
重要なのは、
1つずつ確認し、動作が変わったかを見ること
です。
まずはcu126で安定させる。
多くの環境では、cu126版Torchに揃えることで安定します。
そこからDriverを確認し、必要ならクリーンインストールを行います。
この順番を守るだけで、解決率は大きく上がります。
それでも解決しない場合。
- nvidia-smiの表示
- torch.cuda.is_available() の結果
- エラーメッセージ全文
を確認し、どの層で失敗しているかを見極めてください。
GPUは正しく認識され、TorchがCUDAを有効と判定していれば、
環境はほぼ正常です。
最後に。
CUDAエラーは「運が悪い」のではなく、整合が崩れているだけです。
構造を理解し、順番に確認すれば必ず原因にたどり着きます。
このガイドを上から順番に実行すれば、ほとんどのFramePack Studio環境は安定します。
落ち着いて、一つずつ確認していきましょう。
