<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Ollama on René Zander | KI-Automatisierungsberater</title><link>https://renezander.com/de/tags/ollama/</link><description>Recent content in Ollama on René Zander | KI-Automatisierungsberater</description><generator>Hugo</generator><language>de</language><lastBuildDate>Wed, 29 Apr 2026 07:30:00 +0200</lastBuildDate><atom:link href="https://renezander.com/de/tags/ollama/index.xml" rel="self" type="application/rss+xml"/><item><title>Claude Code mit lokalen LLMs und ANTHROPIC_BASE_URL: Ollama, LM Studio, llama.cpp, vLLM</title><link>https://renezander.com/de/guides/claude-code-lokales-llm-anthropic-base-url/</link><pubDate>Wed, 29 Apr 2026 07:30:00 +0200</pubDate><guid>https://renezander.com/de/guides/claude-code-lokales-llm-anthropic-base-url/</guid><description>&lt;p>&lt;em>Native Anthropic-Endpoints, Tool-Call-Kompatibilität und Context-Window-Sizing für lokales Claude Code.&lt;/em>&lt;/p>
&lt;p>&lt;em>Zuletzt getestet: April 2026. Siehe Changelog am Ende.&lt;/em>&lt;/p>
&lt;h2 id="tldr-cheat-sheet">TL;DR Cheat Sheet&lt;/h2>
&lt;table>
 &lt;thead>
 &lt;tr>
 &lt;th>Ziel&lt;/th>
 &lt;th>Setup&lt;/th>
 &lt;/tr>
 &lt;/thead>
 &lt;tbody>
 &lt;tr>
 &lt;td>MacBook Air&lt;/td>
 &lt;td>Gemma 4 26B-A4B Q4, &lt;strong>32K Context&lt;/strong>, LM Studio oder Ollama&lt;/td>
 &lt;/tr>
 &lt;tr>
 &lt;td>MacBook Pro&lt;/td>
 &lt;td>Gemma 4 26B-A4B Q4 / UD-Q4, &lt;strong>64K Context&lt;/strong>, llama.cpp oder LM Studio&lt;/td>
 &lt;/tr>
 &lt;tr>
 &lt;td>Claude Code Minimum&lt;/td>
 &lt;td>&lt;strong>32K Context&lt;/strong> (alles darunter ist eine Chat-Demo)&lt;/td>
 &lt;/tr>
 &lt;tr>
 &lt;td>Bestes lokales Backend&lt;/td>
 &lt;td>LM Studio oder Ollama zuerst; llama.cpp für Fortgeschrittene; vLLM für Server&lt;/td>
 &lt;/tr>
 &lt;tr>
 &lt;td>Vermeiden&lt;/td>
 &lt;td>8K / 16K Context, dichtes 31B Gemma 4 auf 32-GB-Maschinen, alte llama.cpp-Builds&lt;/td>
 &lt;/tr>
 &lt;/tbody>
&lt;/table>
&lt;h2 id="die-faustregel-für-lokales-claude-code">Die Faustregel für lokales Claude Code&lt;/h2>
&lt;p>Drei Faktoren entscheiden, ob eine lokale Claude-Code-Session funktioniert:&lt;/p></description></item><item><title>Docker-Compose-KI-/ML-Dev-Stack: Lokales LLM, Vector-DB, volle YAML</title><link>https://renezander.com/de/blog/docker-compose-ai-development-stack/</link><pubDate>Fri, 20 Mar 2026 10:00:00 +0100</pubDate><guid>https://renezander.com/de/blog/docker-compose-ai-development-stack/</guid><description>&lt;p>Jedes KI-Projekt startet bei mir jetzt gleich: &lt;code>docker compose up -d&lt;/code> und ich habe Ollama, Qdrant, Postgres, Redis und einen LiteLLM-Proxy in unter zwei Minuten laufen. Keine pyenv-Konflikte, kein Homebrew-Drift, kein &lt;em>&amp;ldquo;läuft auf meinem Rechner&amp;rdquo;&lt;/em>. Eine YAML, ein Kommando, identischer Stack auf Laptop und Dev-VPS.&lt;/p>
&lt;p>Das ist das Tutorial für einen vollständigen Docker-Compose-KI-/ML-Dev-Stack. YAML kopieren, starten, Modell ziehen, bauen. Ich nutze genau dieses Layout für RAG-Pipeline-Prototyping, MCP-Server-Tests und meine Cron-gesteuerten Claude-Agents, bevor sie in Produktion gehen.&lt;/p></description></item></channel></rss>