Cómo Eliminar Modelos de Ollama: Guía Paso a Paso Completa

Requisitos Previos
Antes de comenzar, asegúrate de tener:
- Ollama instalado y en ejecución — Abre tu terminal y ejecuta
ollama --versionpara confirmar. - Acceso a una terminal — Usa Terminal (macOS/Linux) o PowerShell/Símbolo del sistema (Windows). Ejecuta como Administrador en Windows si ves errores de permisos.
- Nombres de modelos listos — Necesitarás el nombre exacto y la etiqueta (por ejemplo,
llama3:latest). - Conciencia del espacio en disco — Los modelos pueden ocupar varios GB; eliminarlos libera almacenamiento inmediatamente después de que el comando termine.
Ollama almacena los modelos por defecto en:
- macOS:
~/.ollama/models - Linux:
~/.ollama/models(o/usr/share/ollama/.ollama/modelspara instalaciones de sistema) - Windows:
C:\Users\TuNombreDeUsuario\.ollama\models
Paso 1: Listar Todos los Modelos Instalados
Siempre empieza aquí para saber exactamente qué estás eliminando.
En tu terminal, ejecuta:
ollama list
Salida esperada (ejemplo):
NAME ID SIZE MODIFIED
llama3:latest 8f6e2a123abc 4.7 GB 3 días atrás
gemma2:9b 2d9f3b456def 5.2 GB 1 semana atrás
Copia el nombre exacto de la columna NAME (incluyendo la etiqueta después de los dos puntos).
Paso852: Eliminar un Solo Modelo
Usa el comando ollama rm seguido del nombre del modelo.
ollama rm llama3:latest
Salida esperada:
deleted 'llama3:latest'
El comando elimina instantáneamente el manifiesto y todos los archivos blob asociados. No se muestra ninguna solicitud de confirmación.
Paso 3: Eliminar Múltiples Modelos a la Vez
Elimina varios modelos en una sola línea:
ollama rm llama3:latest gemma2:9b mistral:latest
Salida esperada:
deleted 'llama3:latest'
deleted 'gemma2:9b'
deleted 'mistral:latest'
Paso 4: Eliminar Todos los Modelos (Eliminación Masiva)
Usa esta línea de comando para eliminar cada modelo a la vez (macOS/Linux primero):
ollama list | awk 'NR>1 {print $1}' | xargs -I {} ollama rm {}
Equivalente en Windows PowerShell:
ollama list | Select-Object -Skip 1 | ForEach-Object { $_.Trim() -split '\s+' | Select-Object -First 1 } | ForEach-Object { ollama rm $_ }
Después de ejecutarlo, confirma con ollama list — debería devolver solo la fila de encabezados.
Paso 5: Reiniciar Ollama (Recomendado)
Reinicia el servicio Ollama para asegurarte de que todos los blobs se limpien completamente y se libere el espacio en disco.
- macOS:
ollama serve(o cierra y vuelve a abrir la aplicación Ollama) - Linux:
sudo systemctl restart ollama - Windows: Reinicia el proceso Ollama desde el Administrador de tareas o simplemente cierra y vuelve a abrir la aplicación.
Ejecuta ollama list de nuevo para verificar que los modelos han desaparecido.
Problemas Comunes y Solución de Fallos
- Error "Modelo no encontrado": Verifica nuevamente el nombre exacto y la etiqueta de
ollama list. - Permiso denegado: En Linux/macOS usa
sudo ollama rm ...o ejecuta el terminal como Administrador en Windows. - Espacio en disco no liberado: Reinicia Ollama (Paso 5). Si sigue atascado, revisa manualmente la carpeta blobs pero nunca borres archivos mientras Ollama está en ejecución.
- El modelo sigue apareciendo después de rm: Detén cualquier instancia en ejecución con
ollama stop <modelo>primero, luego vuelve a intentarollama rm. - Ubicación de almacenamiento personalizada: Si configuraste la variable de entorno
OLLAMA_MODELS, los modelos residen en otro lugar — revisa esa ruta en su lugar. - Método API (avanzado): Usa curl para scripts:
curl -X DELETE http://localhost:11434/api/delete -d '{"model": "llama3:latest"}'
Siguientes Pasos
- Descarga modelos nuevos: Ejecuta
ollama pull llama3.1:8bpara obtener la última versión. - Configura almacenamiento personalizado: Exporta
OLLAMA_MODELS=/ruta/a/nueva/carpetaantes de ejecutar Ollama para mover todo a un disco más grande. - Automatiza la limpieza: Añade el comando de borrado masivo a una tarea cron semanal o un script de PowerShell.
- Monitorea el uso: Ejecuta
ollama listregularmente y combínalo condu -sh ~/.ollama/models(macOS/Linux) o el Explorador de archivos en Windows para rastrear el almacenamiento.
Ahora tienes control total sobre tus modelos locales de Ollama. Libera espacio instantáneamente y mantén solo lo que necesitas.
Continue Reading
More articles connected to the same themes, protocols, and tools.
Referenced Tools
Browse entries that are adjacent to the topics covered in this article.








