Bleiben Sie auf dem Laufenden

Ship From Your Phone — eigene AI-Delivery
Back to News
ai-agentsself-hostedmobile-devopshermesharnessmcpcto-playbook

Ship From Your Phone: Deine eigene AI-Delivery

Eine Nachricht vom Handy genügt, und dein AI-Delivery-System startet den gesamten Flow – vom Review bis zum Release auf deiner eigenen Infrastruktur.

8 min read
Marian Krotil
by Marian Krotil

Mit nur einer Nachricht vom Smartphone setzt du die gesamte Delivery-Maschine in Gang: PR-Reviews, Incident-Management, Fixes und Preview-Releases. Innerhalb von Minuten erhältst du Analysen, Patch-Vorschläge, Testergebnisse und ein Audit-Log. Alles läuft self-hosted – Server, Regeln, Integrationen und Daten bleiben also voll unter deiner Kontrolle.

In der Praxis.

Ich schreibe einfach per Slack / WhatsApp / E-Mail:

  • „Ich hätte gerne einen Dark Mode für die App. Implementiere ihn und erstelle ein Preview-Release für eine Demo.“
  • „Ich habe Review-Kommentare zu meinem PR erhalten. Schau sie dir an, schlage Lösungen vor und fixe es nach meiner Freigabe direkt im PR.“
  • „Wie funktioniert TameTeq? Mach ein Research, erstelle ein PDF und schick es mir per E-Mail.“
  • „Hey, die App stürzt ab. Check die Logs, finde den Fehler, erstelle einen Task und ein Preview mit dem Fix.“
  • „Analysiere die Konkurrenz im Netz. Vergleiche deren Preise und Positionierung mit uns, erstelle eine One-Pager-Empfehlung und sende sie an das Management.“
  • „Erstelle aus den internen Docs und dem Wiki einen Onboarding-Plan für ein neues Teammitglied für die ersten zwei Wochen.“
  • „Finde heraus, welche Meetings diese Woche kein klares Ziel haben. Schlage eine Agenda vor oder sage unnötige Calls ab.“

Wie funktioniert das?

Eine Nachricht, der komplette Workflow. Wenn ich eine Nachricht im internen Slack-Kanal mit der Bitte um ein PR-Review schreibe, erstellt der Agent sofort einen Bericht direkt in GitHub: riskante Änderungen, Testergebnisse und konkrete Patch-Vorschläge, die er auf Wunsch direkt umsetzt. Bei Incidents reicht ein kurzer Befehl. Der Agent sammelt die Logs, erstellt ein Ticket, reproduziert den Fehler, bereitet den Fix-Branch vor und schickt eine Preview-URL samt Changelog und Einschätzung der Auswirkungen auf die Produktion. Genauso läuft die Delivery neuer Features. Du beschreibst die Funktion, der Agent erstellt den Task, bereitet den Code vor, lässt Tests laufen, macht einen Qualitätscheck und öffnet den PR. Morgens frage ich nach wichtigen E-Mails. Der Agent filtert Prioritäten, entwirft Antworten im Projektkontext und trägt Aufgaben automatisch in Slack ein.

Das sind nur Beispiele. Tatsächlich ist das Einsatzgebiet riesig: Der Agent kann über CLI, MCP-Integrationen oder das Web arbeiten, sofern er die entsprechenden Zugriffe hat. Jedes System, das der Agent verstehen und sicher steuern kann, lässt sich in den Workflow einbinden.

Das Ergebnis: Höhere Team-Produktivität, da sich alle auf das Wesentliche konzentrieren und Routineaufgaben loswerden. Die operativen Prozesse (Reviews, Fixes, Reports) werden schneller, die Time-to-Fix sinkt, und durch Orchestrierung lassen sich mehr Aufgaben parallel erledigen.

Warum die Execution unter dem eigenen Dach bleiben sollte.

SaaS-Plattformen sind ein guter Start. Aber sobald Agenten auf Produktions-Repos, Incidents und interne Tools zugreifen, zählen andere Dinge: Auditierung, Zugriffsrechte und Sicherheitsverantwortung.

Ein self-hosted System behält die kritische Execution-Ebene innerhalb deines Perimeters. Zugriffe, Logging, Guardrails und die Wahl der Model-Provider liegen in deiner Hand – vom ersten Befehl bis zum finalen Deployment.

  • Keine Blackbox zwischen dir und der produktiven Ausführung
  • Vollständig auditierbarer Fluss von Entscheidungen und Aktionen
  • Sicherheitspolicies und Guardrails nach eigenen Regeln
  • Flexible Konfiguration und Integration eigener Systeme
  • Eigene Kontrolle über Qualität, Latenz und Modellkosten

Playbook: 6 Schritte zum eigenen AI-Delivery-System.

Quick Start: Ein Pilotprojekt steht in 1–2 Stunden. Wenn Server, Zugänge und API-Keys bereit sind, läuft die erste Version in einer Arbeitssitzung. Suche nicht sofort nach Perfektion; das Ziel ist eine sichere Basis, die funktioniert und im Betrieb verfeinert wird.

1) Server mieten und Umgebung vorbereiten. Für den Start reicht eine Maschine (Ubuntu LTS, 4 vCPU, 8–16 GB RAM, 80+ GB SSD) bei Providern wie Hetzner, Vultr oder AWS. Die Kosten liegen oft im niedrigen einstelligen Eurobereich pro Monat. Trenne optional Runtime, Logs und Secrets für eine bessere Skalierbarkeit.

2) Server-Setup – Zugriff, Ports und Firewall. Nutze SSH-Keys, trenne Benutzerrollen und minimiere offene Ports (3000). Aktiviere Audit-Logs, um kritische Aktionen nachvollziehbar zu machen. Installiere die nötige Software für das AI-System und deinen Tech-Stack (Python, npm, Docker, Git), damit der Agent damit arbeiten kann.

3) Agenten-System und Orchestrierung installieren. Fortgeschrittene Setups (wie Hermes) nutzen eine Gateway-Logik zur Steuerung von Tools und Workflows. Das ist das „Gehirn“ des Systems, das Aufgaben zerlegt und delegiert. So kannst du Status speichern, Kontexte für Nutzer trennen und Instruktionen anpassen.

4) Hermes Agent, Harness und Software-Stack konfigurieren. Zuerst werden Model-Provider, Keys und Berechtigungen definiert. Dann folgen Routing, Fallbacks und Kostenlimits. (Advanced) Erstelle Regeln für mehrere Projekte, damit jeder Kontext getrennt bleibt. Ein Gateway zu Slack/WhatsApp ist empfehlenswert, um das System nicht nur übers Terminal zu steuern. Bereite schließlich den Stack vor: Git, GitHub CLI (PR-Flow), Linear, MCP-Server (E-Mail, Kalender) und interne Deployment-Tools.

5) System als Service starten. Die Agent-Runtime sollte über ein Prozess-Management mit Health-Checks und Logging laufen, damit sie rund um die Uhr zuverlässig bereitsteht.

6) Kommunikation über deine App. Nutze Slack, Discord, WhatsApp oder E-Mail. Definiere Instruktionen und „Skills“ für den Agenten, um konsistente Ergebnisse zu erhalten. Diese Skills lassen sich laufend verfeinern – oft sogar direkt durch den Agenten selbst basierend auf deinem Feedback.

Fazit des Playbooks: Fang einfach an, aber trenne von Beginn an Orchestrierung, Ausführung und Zugriff. Das gibt dir den Speed von AI-Agents, ohne die Kontrolle über Qualität und Sicherheit zu verlieren.

Hermes und Harness: Das Zusammenspiel

Hermes ist die Orchestrierung – das Gehirn. Es nimmt Aufgaben entgegen, hält den Kontext, plant Schritte, wählt Tools und prüft Guardrails. Kurz: Hermes entscheidet, was wann wie getan wird.

Harness ist kein Produkt, sondern ein Architektur-Konzept. In einem Team ist es die Execution-Ebene mit spezialisierten Workern, woanders ein Wrapper über mehrere Agenten. Definiere für dein Projekt klar, was du als „Harness“ bezeichnest.

Provider sind die Lieferanten für Modelle. Das sind LLMs (OpenAI, Anthropic, lokale Endpunkte) oder Dienste für Embeddings. Die Orchestrierung routet Anfragen je nach Preis, Latenz oder Qualität.

Der Ablauf: Nutzer gibt Aufgabe -> Orchestrierung plant -> Wählt Provider und Worker -> Ausführung -> Output-Check (Sicherheit/Qualität) -> Finale Antwort an den Nutzer. Bei Ausfällen greifen definierte Fallbacks.

Zusammenfassend: Hermes ist ein konkreter Orchestrator; Harness ist das Muster zur Organisation der Ausführung. Gemeinsam bieten sie Speed und volle operative Kontrolle.

  • Hermes = Orchestrierung, Kontext, Regeln, Routing
  • Harness = Struktur der Ausführung (Worker-Ebene oder Wrapper)
  • Claude Code / Codex = Starke Execution-Tools für Coding
  • Gateway + Skills + Guardrails = Stabiler Betrieb ohne manuelles Umschalten

Wo liegt der höchste ROI?

Der größte ROI entsteht dort, wo du die Kontrolle brauchst: Guidelines, Zugriffe, Repositories und Audit-Trails. Du wartest nicht auf einen Drittanbieter, sondern setzt eigene Standards und behältst die Hoheit über die Daten.

Die Wirtschaftlichkeit ist klarer: Du zahlst primär für Server und Modell-Provider, nicht für eine zusätzliche Cloud-AI-Marge. Da alles auf deinem Server läuft, kontrollierst du Kosten, Latenz und Datenfluss besser.

Gleichzeitig gewinnst du Flexibilität: Du bindest jeden beliebigen Stack an und steuerst das System von überall – egal ob per Terminal, Messenger oder eigener Firmen-App.

"Wir mieten keine fremde AI-Fabrik. Wir bauen unsere eigene Delivery-Engine unter voller Kontrolle – von der Instruktion bis zum Ergebnis in Produktion."

Tameteq

References

[1]
Hetzner Cloud Docshttps://docs.hetzner.com/cloud/
[2]
Model Context Protocol (MCP)https://modelcontextprotocol.io/docs/getting-started/intro
[3]
Anthropic Tool Use Overviewhttps://platform.claude.com/docs/en/agents-and-tools/tool-use/overview
[4]
Claude Code Overviewhttps://code.claude.com/docs/en/overview
[5]
Claude Code CLI Referencehttps://code.claude.com/docs/en/cli-reference
[6]
GitHub CLI Manualhttps://cli.github.com/manual/
[7]
OpenAI Codex CLI Docshttps://developers.openai.com/codex/cli
[8]
OpenAI Codex Cloud Docshttps://developers.openai.com/codex/cloud
[9]
OpenAI: Codex for (almost) everything (Apr 16, 2026)https://openai.com/index/codex-for-almost-everything/
[10]
Nous Research Hermes Agent (GitHub)https://github.com/nousresearch/hermes-agent
[11]
Nous Research Hermes Agent Releaseshttps://github.com/NousResearch/hermes-agent/releases
[12]
Anthropic: Building Effective AI Agentshttps://www.anthropic.com/engineering/building-effective-agents
[13]
LangGraph Workflows & Agentshttps://docs.langchain.com/oss/python/langgraph/workflows-agents
[14]
LangGraph Supervisor Referencehttps://reference.langchain.com/python/langgraph-supervisor
[15]
Hermes Agent Providers Integrationhttps://github.com/NousResearch/hermes-agent/blob/main/website/docs/integrations/providers.md
[16]
Google Workspace MCP Server (Gmail, Calendar, Drive)https://github.com/ngs/google-mcp-server