Back to Blog
BlogApril 22, 20262

Ollamaモデルの削除方法:完全なステップバイステップガイド

Ollamaモデルの削除方法:完全なステップバイステップガイド

前提条件

開始する前に、以下の環境を確認してください:

  • Ollamaがインストール済みで実行中であること — ターミナルで ollama --version を実行し、インストールを確認してください。
  • ターミナルアクセス権 — Terminal(macOS/Linux)またはPowerShell/Command Prompt(Windows)を使用します。Windowsで権限エラーが表示される場合は、管理者として実行してください。
  • モデル名を準備 — 正確なモデル名とタグ(例:llama3:latest)が必要です。
  • ディスク容量を把握 — モデルは数GBのサイズになる場合があります。削除コマンドが完了すると、ストレージが直ちに解放されます。

Ollamaはデフォルトでモデルを以下に保存します:

  • macOS: ~/.ollama/models
  • Linux: ~/.ollama/models(システムインストールの場合は /usr/share/ollama/.ollama/models
  • Windows: C:\Users\YourUsername\.ollama\models

ステップ 1:インストール済みモデルをすべてリスト表示

削除対象を正確に把握するために、最初に必ず実行してください。

ターミナルで以下を実行します:

ollama list

期待される出力例

NAME                ID              SIZE      MODIFIED
llama3:latest       8f6e2a123abc    4.7 GB    3 days ago
gemma2:9b          2d9f3b456def    5.2 GB    1 week ago

コロン以降のタグを含む NAME 列から正確な名前をコピーしてください。

ステップ 2:単一モデルを削除

モデル名の後に ollama rm コマンドを続けて実行します。

ollama rm llama3:latest

期待される出力

deleted 'llama3:latest'

このコマンドは、マニフェストと関連するすべてのblobファイルを即座に削除します。確認プロンプトは表示されません。

ステップ 3:複数モデルを一度に削除

1行で複数のモデルを削除できます:

ollama rm llama3:latest gemma2:9b mistral:latest

期待される出力

deleted 'llama3:latest'
deleted 'gemma2:9b'
deleted 'mistral:latest'

ステップ 4:すべてのモデルを削除(一括削除)

すべてのモデルを一度に削除するワンライナーです(まずmacOS/Linux用):

ollama list | awk 'NR>1 {print $1}' | xargs -I {} ollama rm {}

Windows PowerShellの同等コマンド

ollama list | Select-Object -Skip 1 | ForEach-Object { $_.Trim() -split '\s+' | Select-Object -First 1 } | ForEach-Object { ollama rm $_ }

実行後、ollama list で確認してください — ヘッダー行のみが表示されるはずです。

ステップ 5:Ollamaを再起動(推奨)

Ollamaサービスを再起動し、すべてのblobが完全にクリーンアップされ、ディスク容量が解放されたことを確認します。

  • macOS: ollama serve(またはOllamaアプリを終了して再起動)
  • Linux: sudo systemctl restart ollama
  • Windows: タスクマネージャーからOllamaプロセスを再起動するか、アプリを閉じて再度開きます。

もう一度 ollama list を実行し、モデルが削除されたことを確認してください。

よくある問題とトラブルシューティング

-n 「Model not found」エラー: ollama listの正確な名前とタグを再確認してください。 -n 権限が拒否されました: Linux/macOSではsudo ollama rm ...を使用し、Windowsではターミナルを管理者として実行してください。 -n ディスク領域が解放されない: Ollamaを再起動します(ステップ5)。それでも解決しない場合は、blobsフォルダを手動で確認しますが、Ollamaが実行中にファイルを削除しないでください。 -n モデルが削除後も表示される: まず実行中のインスタンスをollama stop <モデル名>で停止してから、ollama rmを再試行してください。 -n カスタムストレージの場所: OLLAMA_MODELS環境変数を設定した場合、モデルは別の場所にあります。そのパスを確認してください。 -n APIメソッド(上級者向け): スクリプト用にcurlを使用します:

curl -X DELETE http://localhost:11434/api/delete -d '{"model": "llama3:latest"}'

次のステップ

-n 新しいモデルをダウンロード: ollama pull llama3.1:8bを実行して最新バージョンを入手します。 -n カスタムストレージを設定: OLLAMA_MODELS=/path/to/new/folderをエクスポートしてからOllamaを実行し、すべてのデータを大きなドライブに移動します。 -n クリーンアップを自動化: 一括削除コマンドを週次のcronジョブまたはPowerShellスクリプトに追加します。 -n 使用状況を監視: ollama listを定期的に実行し、du -sh ~/.ollama/models(macOS/Linux)またはWindowsのファイルエクスプローラーと組み合わせてストレージを追跡します。

これでローカルのOllamaモデルを完全に制御できます。必要なものだけを保持し、すぐにスペースを解放しましょう。

Share this article

Referenced Tools

Browse entries that are adjacent to the topics covered in this article.

Explore directory