Blender MCP
BlenderMCP verbindet Blender mit KI-Assistenten wie Claude über das Model Context Protocol (MCP). Es ermöglicht eine natürliche Sprachsteuerung für das Erstellen, Bearbeiten und Rendern von 3D-Modellen und -Szenen direkt in Blender.
Übersicht
Blender MCP (auch bekannt als BlenderMCP) von Siddharth Ahuja ist der führende Open-Source Model Context Protocol (MCP) Server, der KI-Sprachmodelle – insbesondere Claude – mit Blender, der leistungsstarken kostenlosen und quelloffenen 3D-Erstellungssuite, verbindet.
Es ermöglicht KI-Assistenten, direkt mit einer laufenden Blender-Sitzung zu interagieren: Objekte erstellen, Geometrie modifizieren, Materialien anwenden, Beleuchtung einrichten, Szenen rendern und mehr – alles über natürliche Sprachaufforderungen.
Das System verwendet eine duale Architektur: ein Blender-Addon, das einen Socket-Server innerhalb von Blender bereitstellt, und einen Python-MCP-Server, der KI-Toolaufrufe in Blender-Python-API (bpy)-Befehle übersetzt.
Hauptmerkmale
- 3D-Steuerung per natürlicher Sprache: Fordere Claude auf, "einen Low-Poly-Berg mit Schneekuppen zu erstellen" oder "ein realistisches Automodell hinzuzufügen und die Räder zu animieren".
- Echtzeit-Szenenmanipulation: Objekte hinzufügen, bearbeiten, löschen; Meshes modifizieren, Modifikatoren anwenden, Materialien, Kameras und Lichtquellen setzen.
- Inspektion & Analyse: Aktuellen Szenenzustand abfragen, Objekte auflisten, Geometrie analysieren oder Render-Vorschauen erhalten.
- Automatisierungs-Workflows: Komplexe Szenen generieren, Designs iterativ verbessern, Modelle exportieren oder Batch-Operationen ausführen.
- Live-Verbindung: Arbeitet mit einer laufenden Blender-Instanz für sofortiges visuelles Feedback.
- MCP-Client-Unterstützung: Kompatibel mit Claude Desktop, Cursor, VS Code mit MCP-Erweiterungen und anderen konformen KI-Tools.
- Erweiterbar: Community-Forks fügen weitere Tools, Unterstützung für andere LLMs (Ollama, Gemini) oder spezialisierte Funktionen wie Text-zu-4D hinzu.
Anwendungsfälle
- KI-unterstütztes 3D-Modellieren: 3D-Assets, Charaktere, Umgebungen oder Produktvisualisierungen aus Textbeschreibungen generieren.
- Rapid Prototyping: Designs konversationell iterieren ohne tiefgehendes Blender-Wissen.
- Szenenbau & Storytelling: Animierte Szenen, Architekturvisualisierungen oder Spiel-Assets erstellen.
- Bildung & Lernen: Neue Benutzer lernen Blender, während die KI komplexe Operationen übernimmt.
- Kreative Pipelines: Kombination mit anderen MCP-Servern (z.B. Bildgenerierung oder Code-Tools) für vollständig KI-gesteuerte Inhaltserstellung.
- Automatisierung & Batch-Verarbeitung: Wiederkehrende Modellierungsaufgaben über KI-Orchestrierung skripten.
Installation & Einrichtung
1. Blender-Addon
addon.pyaus dem Repository herunterladen.- In Blender: Bearbeiten → Einstellungen → Add-ons → Installieren → "Blender MCP" aktivieren.
- Seitenleiste öffnen (N-Taste) → Blender MCP-Tab → Internen Socket-Server starten.
2. MCP-Server
- Installation via
pip install blender-mcpoder Repository klonen. - Server starten (Standard-Port 9876).
3. Mit KI-Client verbinden
- MCP-Server zu Claude Desktop, Cursor oder Ihrer bevorzugten Client-Konfiguration hinzufügen.
- Mit der Eingabe natürlicher Sprache beginnen, während Blender geöffnet ist.
Viele YouTube-Tutorials bieten Schritt-für-Schritt-Visualanleitungen für Windows, macOS und Linux.
Alternativen & Community
Es gibt mehrere Forks und Varianten, darunter:
- PolyMCP / llm-use Blender-MCP-Server (50+ Werkzeuge, HTTP-basiert).
- Open-Source-LLM-Varianten (Ollama-Integration).
- Erweiterte Versionen für spezifische Workflows (z. B. Text-zu-4D, VXAI).
Die ursprüngliche Implementierung ahujasid/blender-mcp bleibt die beliebteste und am häufigsten referenzierte (tausende Sterne und aktive Community-Nutzung).
Kompatibilität
- Blender: Funktioniert mit neueren Versionen, die Python-Skripting unterstützen.
- Clients: Claude Desktop, Cursor, jede MCP-konforme KI-Anwendung.
- Lizenz: Open-Source (MIT-ähnlich, Details im Repository prüfen).
Blender MCP stellt einen großen Sprung hin zu einer KI-nativen 3D-Inhaltserstellung dar und senkt die Hürde für die Erzeugung hochwertiger 3D-Modelle und Szenen drastisch.