<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Devops on René Zander | KI-Automatisierungsberater</title><link>https://renezander.com/de/tags/devops/</link><description>Recent content in Devops on René Zander | KI-Automatisierungsberater</description><generator>Hugo</generator><language>de</language><lastBuildDate>Fri, 08 May 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://renezander.com/de/tags/devops/index.xml" rel="self" type="application/rss+xml"/><item><title>n8n-Self-Hosting-Leitfaden: Docker, Kubernetes und Bare Metal in Produktion</title><link>https://renezander.com/de/blog/n8n-self-hosting-guide/</link><pubDate>Tue, 31 Mar 2026 09:00:00 +0200</pubDate><guid>https://renezander.com/de/blog/n8n-self-hosting-guide/</guid><description>&lt;p>Ich fahre n8n selbst gehostet seit 2022 über drei verschiedene Topologien: ein Single-VPS-Docker-Compose-Setup, einen kleinen Kubernetes-Cluster mit Queue-Mode und eine Bare-systemd-Installation auf einer gehärteten Debian-Box. Jede hat ihren Platz, und die falsche Wahl kostet Wochenenden. Dieser n8n-Self-Hosting-Leitfaden ist die Version, die ich am Anfang gebraucht hätte — geschrieben für Teams, die produktive Stabilität wollen, nicht eine Demo.&lt;/p>
&lt;p>Kurzes Fazit vorweg: Docker Compose fahren, solange Sie physisch können. Kubernetes nur, wenn Sie es ohnehin für andere Services betreiben oder wirklich nördlich von 50.000 Executions pro Tag liegen. Der Bare-systemd-Pfad existiert für Leute wie mich, die minimalistische Stacks mögen und jedes bewegliche Teil verstehen wollen. Alle drei funktionieren. Der falsche Pfad fühlt sich wie ein zweiter Job an.&lt;/p></description></item><item><title>Linux-VPS für KI-Entwicklung: Debian, Claude Code, MCP</title><link>https://renezander.com/de/blog/linux-vps-ai-development-setup/</link><pubDate>Tue, 24 Mar 2026 07:30:00 +0100</pubDate><guid>https://renezander.com/de/blog/linux-vps-ai-development-setup/</guid><description>&lt;p>Mein Laptop schläft. Meine Agenten nicht. Genau deswegen läuft mein KI-Setup auf einem Linux-VPS und nicht in einem lokalen Python-venv.&lt;/p>
&lt;p>Alles, was ich ausliefere — den TickTick-MCP-Server, den Telegram-Bot, der Claude Opus per Long-Polling abfragt, die Cron-getriebenen Morgen-Briefings, die Customer-Profiling-Pipeline — läuft auf einer einzigen Debian-Maschine. Kein Kubernetes. Kein Docker Swarm. Nur systemd, Bash und das Anthropic-SDK. Diese Anleitung ist die exakte Sequenz, die ich nutze, wenn ich einen neuen VPS für ein KI-Projekt aufsetze: vom frischen Hetzner-Image bis zur funktionierenden Claude-Code-CLI mit verkabelten MCP-Clients.&lt;/p></description></item><item><title>Systemd-Services für KI-Server: Production-Setup auf Linux</title><link>https://renezander.com/de/blog/systemd-services-ai-servers/</link><pubDate>Sat, 21 Mar 2026 07:00:00 +0100</pubDate><guid>https://renezander.com/de/blog/systemd-services-ai-servers/</guid><description>&lt;p>Ich betreibe einen TickTick-MCP-Server, einen Telegram-Bot, der durch Claude Opus routet, und zehn geplante KI-Agenten auf einem einzelnen Debian-VPS. Keiner davon läuft in Docker. Alle laufen als systemd-Services oder systemd-Timer.&lt;/p>
&lt;p>Das hier ist die Setup-Anleitung, wie ich systemd-Services für KI-Server tatsächlich in Produktion betreibe. Unit-Files, Logs, Timer, Resource Limits und das Security-Hardening, das wirklich zählt. Keine Container-Orchestrierung, kein Kubernetes, kein Docker-Compose-YAML. Nur systemd, weil es für Single-Host-KI-Workloads das richtige Werkzeug ist.&lt;/p></description></item><item><title>Docker-Compose-KI-/ML-Dev-Stack: Lokales LLM, Vector-DB, volle YAML</title><link>https://renezander.com/de/blog/docker-compose-ai-development-stack/</link><pubDate>Fri, 20 Mar 2026 10:00:00 +0100</pubDate><guid>https://renezander.com/de/blog/docker-compose-ai-development-stack/</guid><description>&lt;p>Jedes KI-Projekt startet bei mir jetzt gleich: &lt;code>docker compose up -d&lt;/code> und ich habe Ollama, Qdrant, Postgres, Redis und einen LiteLLM-Proxy in unter zwei Minuten laufen. Keine pyenv-Konflikte, kein Homebrew-Drift, kein &lt;em>&amp;ldquo;läuft auf meinem Rechner&amp;rdquo;&lt;/em>. Eine YAML, ein Kommando, identischer Stack auf Laptop und Dev-VPS.&lt;/p>
&lt;p>Das ist das Tutorial für einen vollständigen Docker-Compose-KI-/ML-Dev-Stack. YAML kopieren, starten, Modell ziehen, bauen. Ich nutze genau dieses Layout für RAG-Pipeline-Prototyping, MCP-Server-Tests und meine Cron-gesteuerten Claude-Agents, bevor sie in Produktion gehen.&lt;/p></description></item></channel></rss>