Back to Blog
BlogApril 22, 20263

如何移除 Ollama 模型:完整逐步指南

如何移除 Ollama 模型:完整逐步指南

前提条件

开始操作前,请确保您已具备:

.

  • 已安装并运行 Ollama — 打开终端,运行 ollama --version 来确认。
  • 终端访问权限 — 使用 Terminal(macOS/Linux)或 PowerShell/命令提示符(Windows)。在 Windows 上,如果遇到权限错误,请以管理员身份运行。
  • 准备好模型名称 — 您需要确切的模型名称和标签(例如 llama3:latest)。
  • 了解磁盘空间情况 — 模型可能占用数 GB 空间;删除后,命令完成后存储空间将立即释放。

Ollama 默认将模型存储在:

  • macOS: ~/.ollama/models
  • Linux: ~/.ollama/models(系统安装则位于 /usr/share/ollama/.ollama/models
  • Windows: C:\Users\您的用户名\.ollama\models

步骤 1:列出所有已安装模型

始终从这里开始,以便确切了解要删除的内容。

在终端中运行:

ollama list

预期输出(示例):

名称                 ID              大小       修改时间
llama3:latest        8f6e2a123abc    4.7 GB    3 天前
gemma2:9b           2d9f3b456def    5.2 GB    1 周前

复制 名称 列中的确切名称(包括冒号后的标签)。

步骤 2:删除单个模型

使用 ollama rm 命令,后跟模型名称。

ollama rm llama3:latest

预期输出

已删除 'llama3:latest'

该命令会立即删除清单文件及所有关联的 blob 文件。不显示确认提示。

步骤 3:一次性删除多个模型

在一行命令中删除多个模型:

ollama rm llama3:latest gemma2:9b mistral:latest

预期输出

已删除 'llama3:latest'
已删除 'gemma2:9b'
已删除 'mistral:latest'

步骤 4:删除所有模型(批量删除)

使用以下单行命令一次性删除每个模型(macOS/Linux 适用):

ollama list | awk 'NR>1 {print $1}' | xargs -I {} ollama rm {}

Windows PowerShell 等效命令

ollama list | Select-Object -Skip 1 | ForEach-Object { $_.Trim() -split '\s+' | Select-Object -First 1 } | ForEach-Object { ollama rm $_ }

运行后,使用 ollama list 确认 —— 它应仅返回标题行。

步骤 5:重启 Ollama(推荐)

重启 Ollama 服务以确保所有 blob 文件被完全清理且磁盘空间已释放。

/C/ -macro.mdoc /macro.md

  • macOS: ollama serve(或退出并重新打开 Ollama 应用) 1e
  • Linux: sudo systemctl restart ollama
  • Windows: 从任务管理器重启 Ollama 进程,或直接关闭并重新打开应用。

再次运行 ollama list 以验证模型已删除。

常见问题与故障排除

  • “Model not found”(模型未找到)错误:请仔细核对 ollama list 中的确切名称和标签。
  • Permission denied(权限被拒绝):在 Linux/macOS 上使用 sudo ollama rm ...,或在 Windows 上以管理员身份运行终端。
  • 磁盘空间未释放:重启 Ollama(第 5 步)。如果问题依旧,请手动检查 blobs 文件夹,但切勿在 Ollama 运行时删除文件
  • 删除后模型仍显示:先使用 ollama stop <model> 停止所有运行中的实例,然后重试 ollama rm
  • 自定义存储位置:如果设置了 OLLAMA_MODELS 环境变量,模型将存储在其他位置——请检查该路径。
  • API 方法(高级):在脚本中使用 curl:
    curl -X DELETE http://localhost:11434/api/delete -d '{"model": "llama3:latest"}'
    

后续步骤

  • 下载最新模型:运行 ollama pull llama3.1:8b 以获取最新版本。
  • 设置自定义存储:在运行 Ollama 之前导出 OLLAMA_MODELS=/path/to/new/folder,将所有内容移动到更大的驱动器。
  • 自动化清理:将批量删除命令添加到每周的 cron 任务或 PowerShell 脚本中。
  • 监控使用情况:定期运行 ollama list,并结合 du -sh ~/.ollama/models(macOS/Linux)或 Windows 文件资源管理器来跟踪存储情况。

现在您已完全掌控本地 Ollama 模型。立即释放空间,只保留所需内容。

Share this article

Referenced Tools

Browse entries that are adjacent to the topics covered in this article.

Explore directory