<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Ai-Deployment on René Zander | KI-Automatisierungsberater</title><link>https://renezander.com/de/tags/ai-deployment/</link><description>Recent content in Ai-Deployment on René Zander | KI-Automatisierungsberater</description><generator>Hugo</generator><language>de</language><lastBuildDate>Fri, 08 May 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://renezander.com/de/tags/ai-deployment/index.xml" rel="self" type="application/rss+xml"/><item><title>Systemd-Services für KI-Server: Production-Setup auf Linux</title><link>https://renezander.com/de/blog/systemd-services-ai-servers/</link><pubDate>Sat, 21 Mar 2026 07:00:00 +0100</pubDate><guid>https://renezander.com/de/blog/systemd-services-ai-servers/</guid><description>&lt;p>Ich betreibe einen TickTick-MCP-Server, einen Telegram-Bot, der durch Claude Opus routet, und zehn geplante KI-Agenten auf einem einzelnen Debian-VPS. Keiner davon läuft in Docker. Alle laufen als systemd-Services oder systemd-Timer.&lt;/p>
&lt;p>Das hier ist die Setup-Anleitung, wie ich systemd-Services für KI-Server tatsächlich in Produktion betreibe. Unit-Files, Logs, Timer, Resource Limits und das Security-Hardening, das wirklich zählt. Keine Container-Orchestrierung, kein Kubernetes, kein Docker-Compose-YAML. Nur systemd, weil es für Single-Host-KI-Workloads das richtige Werkzeug ist.&lt;/p></description></item></channel></rss>