<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Qdrant on René Zander | KI-Automatisierungsberater</title><link>https://renezander.com/de/tags/qdrant/</link><description>Recent content in Qdrant on René Zander | KI-Automatisierungsberater</description><generator>Hugo</generator><language>de</language><lastBuildDate>Fri, 20 Mar 2026 10:00:00 +0100</lastBuildDate><atom:link href="https://renezander.com/de/tags/qdrant/index.xml" rel="self" type="application/rss+xml"/><item><title>Docker-Compose-KI-/ML-Dev-Stack: Lokales LLM, Vector-DB, volle YAML</title><link>https://renezander.com/de/blog/docker-compose-ai-development-stack/</link><pubDate>Fri, 20 Mar 2026 10:00:00 +0100</pubDate><guid>https://renezander.com/de/blog/docker-compose-ai-development-stack/</guid><description>&lt;p>Jedes KI-Projekt startet bei mir jetzt gleich: &lt;code>docker compose up -d&lt;/code> und ich habe Ollama, Qdrant, Postgres, Redis und einen LiteLLM-Proxy in unter zwei Minuten laufen. Keine pyenv-Konflikte, kein Homebrew-Drift, kein &lt;em>&amp;ldquo;läuft auf meinem Rechner&amp;rdquo;&lt;/em>. Eine YAML, ein Kommando, identischer Stack auf Laptop und Dev-VPS.&lt;/p>
&lt;p>Das ist das Tutorial für einen vollständigen Docker-Compose-KI-/ML-Dev-Stack. YAML kopieren, starten, Modell ziehen, bauen. Ich nutze genau dieses Layout für RAG-Pipeline-Prototyping, MCP-Server-Tests und meine Cron-gesteuerten Claude-Agents, bevor sie in Produktion gehen.&lt;/p></description></item></channel></rss>