Ollamaモデルの削除方法:完全なステップバイステップガイド

前提条件
開始する前に、以下の環境を確認してください:
- Ollamaがインストール済みで実行中であること — ターミナルで
ollama --versionを実行し、インストールを確認してください。 - ターミナルアクセス権 — Terminal(macOS/Linux)またはPowerShell/Command Prompt(Windows)を使用します。Windowsで権限エラーが表示される場合は、管理者として実行してください。
- モデル名を準備 — 正確なモデル名とタグ(例:
llama3:latest)が必要です。 - ディスク容量を把握 — モデルは数GBのサイズになる場合があります。削除コマンドが完了すると、ストレージが直ちに解放されます。
Ollamaはデフォルトでモデルを以下に保存します:
- macOS:
~/.ollama/models - Linux:
~/.ollama/models(システムインストールの場合は/usr/share/ollama/.ollama/models) - Windows:
C:\Users\YourUsername\.ollama\models
ステップ 1:インストール済みモデルをすべてリスト表示
削除対象を正確に把握するために、最初に必ず実行してください。
ターミナルで以下を実行します:
ollama list
期待される出力例:
NAME ID SIZE MODIFIED
llama3:latest 8f6e2a123abc 4.7 GB 3 days ago
gemma2:9b 2d9f3b456def 5.2 GB 1 week ago
コロン以降のタグを含む NAME 列から正確な名前をコピーしてください。
ステップ 2:単一モデルを削除
モデル名の後に ollama rm コマンドを続けて実行します。
ollama rm llama3:latest
期待される出力:
deleted 'llama3:latest'
このコマンドは、マニフェストと関連するすべてのblobファイルを即座に削除します。確認プロンプトは表示されません。
ステップ 3:複数モデルを一度に削除
1行で複数のモデルを削除できます:
ollama rm llama3:latest gemma2:9b mistral:latest
期待される出力:
deleted 'llama3:latest'
deleted 'gemma2:9b'
deleted 'mistral:latest'
ステップ 4:すべてのモデルを削除(一括削除)
すべてのモデルを一度に削除するワンライナーです(まずmacOS/Linux用):
ollama list | awk 'NR>1 {print $1}' | xargs -I {} ollama rm {}
Windows PowerShellの同等コマンド:
ollama list | Select-Object -Skip 1 | ForEach-Object { $_.Trim() -split '\s+' | Select-Object -First 1 } | ForEach-Object { ollama rm $_ }
実行後、ollama list で確認してください — ヘッダー行のみが表示されるはずです。
ステップ 5:Ollamaを再起動(推奨)
Ollamaサービスを再起動し、すべてのblobが完全にクリーンアップされ、ディスク容量が解放されたことを確認します。
- macOS:
ollama serve(またはOllamaアプリを終了して再起動) - Linux:
sudo systemctl restart ollama - Windows: タスクマネージャーからOllamaプロセスを再起動するか、アプリを閉じて再度開きます。
もう一度 ollama list を実行し、モデルが削除されたことを確認してください。
よくある問題とトラブルシューティング
-n 「Model not found」エラー: ollama listの正確な名前とタグを再確認してください。
-n 権限が拒否されました: Linux/macOSではsudo ollama rm ...を使用し、Windowsではターミナルを管理者として実行してください。
-n ディスク領域が解放されない: Ollamaを再起動します(ステップ5)。それでも解決しない場合は、blobsフォルダを手動で確認しますが、Ollamaが実行中にファイルを削除しないでください。
-n モデルが削除後も表示される: まず実行中のインスタンスをollama stop <モデル名>で停止してから、ollama rmを再試行してください。
-n カスタムストレージの場所: OLLAMA_MODELS環境変数を設定した場合、モデルは別の場所にあります。そのパスを確認してください。
-n APIメソッド(上級者向け): スクリプト用にcurlを使用します:
curl -X DELETE http://localhost:11434/api/delete -d '{"model": "llama3:latest"}'
次のステップ
-n 新しいモデルをダウンロード: ollama pull llama3.1:8bを実行して最新バージョンを入手します。
-n カスタムストレージを設定: OLLAMA_MODELS=/path/to/new/folderをエクスポートしてからOllamaを実行し、すべてのデータを大きなドライブに移動します。
-n クリーンアップを自動化: 一括削除コマンドを週次のcronジョブまたはPowerShellスクリプトに追加します。
-n 使用状況を監視: ollama listを定期的に実行し、du -sh ~/.ollama/models(macOS/Linux)またはWindowsのファイルエクスプローラーと組み合わせてストレージを追跡します。
これでローカルのOllamaモデルを完全に制御できます。必要なものだけを保持し、すぐにスペースを解放しましょう。
Continue Reading
More articles connected to the same themes, protocols, and tools.
Referenced Tools
Browse entries that are adjacent to the topics covered in this article.








