
Hermes Agent
Hermes Agent ist ein quelloffener, sich selbst verbessernder autonomer KI-Agent von Nous Research, der aus Erfahrung lernt, wiederverwendbare Fähigkeiten entwickelt, einen dauerhaften, sessionsübergreifenden Speicher pflegt und sich im Laufe der Zeit zu einem leistungsfähigeren Agenten entwickelt.
Überblick
Hermes Agent ist ein vollständig quelloffener (MIT-Lizenz), selbst gehosteter autonomer KI-Agent, der von Nous Research entwickelt wurde. Im Gegensatz zu herkömmlichen zustandslosen Chatbots oder IDE-gebundenen Copilots ist er als ein dauerhafter, sich entwickelnder Teamkollege konzipiert, der auf Ihrem Server oder VPS lebt. Er verfügt über einen geschlossenen Lernzyklus: Nach Abschluss von Aufgaben reflektiert er die Ergebnisse, erstellt und verfeinert wiederverwendbare Fähigkeiten, speichert Wissen persistiert ab, durchsucht frühere Konversationen und baut ein immer tieferes Modell des Nutzers auf.
Er unterstützt jeden LLM-Anbieter (OpenAI, Anthropic, lokale Modelle via Ollama/vLLM, Nous Portal, OpenRouter und mehr) und läuft auch auf kostengünstiger Infrastruktur effizient.
Hauptmerkmale
- Selbstverbessernder Lernzyklus: Erstellt automatisch Fähigkeiten aus Erfahrungen, verbessert sie während der Nutzung und bewahrt das Wissen über Sitzungen hinweg.
- Persistenter Multi-Level-Speicher: Nutzt FTS5-Suche mit LLM-Zusammenfassung, Honcho-Integration für Nutzermodellierung und dedizierte Speicherdateien (z.B. USER.md, MEMORY.md). -H Multi-Kanal-Zugriff: Interaktion via Telegram, Discord, Slack, WhatsApp, CLI und einem Gateway, der den Agenten 24/7 am Laufen hält.
- Tool- & Ausführungsunterstützung: Eingebaute Tools, Remote-Terminalzugang, MCP-Server-Modus für erweiterte Fähigkeiten und Unterstützung für verschiedene Backends (inklusive Modal, sandboxed execution).
-i Flexible Modellunterstützung: Wechseln Sie Modelle sofort mit dem Befehl
hermes model; optimiert für Cloud-APIs und lokale Open-Weight-Modelle. - Selbst gehostet & leichtgewichtig: Installation mit einem Einzeiler-Skript; läuft auf 5$ VPS, GPU-Servern oder kostengünstigen Serverless-Setups.
Installation
Schnellinstallation unter Linux/macOS/WSL: