Back to Blog
BlogApril 22, 20262

Cómo Eliminar Modelos de Ollama: Guía Paso a Paso Completa

Cómo Eliminar Modelos de Ollama: Guía Paso a Paso Completa

Requisitos Previos

Antes de comenzar, asegúrate de tener:

  • Ollama instalado y en ejecución — Abre tu terminal y ejecuta ollama --version para confirmar.
  • Acceso a una terminal — Usa Terminal (macOS/Linux) o PowerShell/Símbolo del sistema (Windows). Ejecuta como Administrador en Windows si ves errores de permisos.
  • Nombres de modelos listos — Necesitarás el nombre exacto y la etiqueta (por ejemplo, llama3:latest).
  • Conciencia del espacio en disco — Los modelos pueden ocupar varios GB; eliminarlos libera almacenamiento inmediatamente después de que el comando termine.

Ollama almacena los modelos por defecto en:

  • macOS: ~/.ollama/models
  • Linux: ~/.ollama/models (o /usr/share/ollama/.ollama/models para instalaciones de sistema)
  • Windows: C:\Users\TuNombreDeUsuario\.ollama\models

Paso 1: Listar Todos los Modelos Instalados

Siempre empieza aquí para saber exactamente qué estás eliminando.

En tu terminal, ejecuta:

ollama list

Salida esperada (ejemplo):

NAME                ID              SIZE      MODIFIED
llama3:latest       8f6e2a123abc    4.7 GB    3 días atrás
gemma2:9b          2d9f3b456def    5.2 GB    1 semana atrás

Copia el nombre exacto de la columna NAME (incluyendo la etiqueta después de los dos puntos).

Paso852: Eliminar un Solo Modelo

Usa el comando ollama rm seguido del nombre del modelo.

ollama rm llama3:latest

Salida esperada:

deleted 'llama3:latest'

El comando elimina instantáneamente el manifiesto y todos los archivos blob asociados. No se muestra ninguna solicitud de confirmación.

Paso 3: Eliminar Múltiples Modelos a la Vez

Elimina varios modelos en una sola línea:

ollama rm llama3:latest gemma2:9b mistral:latest

Salida esperada:

deleted 'llama3:latest'
deleted 'gemma2:9b'
deleted 'mistral:latest'

Paso 4: Eliminar Todos los Modelos (Eliminación Masiva)

Usa esta línea de comando para eliminar cada modelo a la vez (macOS/Linux primero):

ollama list | awk 'NR>1 {print $1}' | xargs -I {} ollama rm {}

Equivalente en Windows PowerShell:

ollama list | Select-Object -Skip 1 | ForEach-Object { $_.Trim() -split '\s+' | Select-Object -First 1 } | ForEach-Object { ollama rm $_ }

Después de ejecutarlo, confirma con ollama list — debería devolver solo la fila de encabezados.

Paso 5: Reiniciar Ollama (Recomendado)

Reinicia el servicio Ollama para asegurarte de que todos los blobs se limpien completamente y se libere el espacio en disco.

  • macOS: ollama serve (o cierra y vuelve a abrir la aplicación Ollama)
  • Linux: sudo systemctl restart ollama
  • Windows: Reinicia el proceso Ollama desde el Administrador de tareas o simplemente cierra y vuelve a abrir la aplicación.

Ejecuta ollama list de nuevo para verificar que los modelos han desaparecido.

Problemas Comunes y Solución de Fallos

  • Error "Modelo no encontrado": Verifica nuevamente el nombre exacto y la etiqueta de ollama list.
  • Permiso denegado: En Linux/macOS usa sudo ollama rm ... o ejecuta el terminal como Administrador en Windows.
  • Espacio en disco no liberado: Reinicia Ollama (Paso 5). Si sigue atascado, revisa manualmente la carpeta blobs pero nunca borres archivos mientras Ollama está en ejecución.
  • El modelo sigue apareciendo después de rm: Detén cualquier instancia en ejecución con ollama stop <modelo> primero, luego vuelve a intentar ollama rm.
  • Ubicación de almacenamiento personalizada: Si configuraste la variable de entorno OLLAMA_MODELS, los modelos residen en otro lugar — revisa esa ruta en su lugar.
  • Método API (avanzado): Usa curl para scripts:
    curl -X DELETE http://localhost:11434/api/delete -d '{"model": "llama3:latest"}'
    

Siguientes Pasos

  • Descarga modelos nuevos: Ejecuta ollama pull llama3.1:8b para obtener la última versión.
  • Configura almacenamiento personalizado: Exporta OLLAMA_MODELS=/ruta/a/nueva/carpeta antes de ejecutar Ollama para mover todo a un disco más grande.
  • Automatiza la limpieza: Añade el comando de borrado masivo a una tarea cron semanal o un script de PowerShell.
  • Monitorea el uso: Ejecuta ollama list regularmente y combínalo con du -sh ~/.ollama/models (macOS/Linux) o el Explorador de archivos en Windows para rastrear el almacenamiento.

Ahora tienes control total sobre tus modelos locales de Ollama. Libera espacio instantáneamente y mantén solo lo que necesitas.

Share this article

Referenced Tools

Browse entries that are adjacent to the topics covered in this article.

Explore directory