<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Claude-Code on René Zander | KI-Automatisierungsberater</title><link>https://renezander.com/de/tags/claude-code/</link><description>Recent content in Claude-Code on René Zander | KI-Automatisierungsberater</description><generator>Hugo</generator><language>de</language><lastBuildDate>Thu, 30 Apr 2026 08:00:00 +0000</lastBuildDate><atom:link href="https://renezander.com/de/tags/claude-code/index.xml" rel="self" type="application/rss+xml"/><item><title>Was das Anthropic-Postmortem vom 23. April über deine Agent-Pipeline verrät</title><link>https://renezander.com/de/blog/anthropic-three-bugs-every-agent-harness-ships/</link><pubDate>Thu, 30 Apr 2026 08:00:00 +0000</pubDate><guid>https://renezander.com/de/blog/anthropic-three-bugs-every-agent-harness-ships/</guid><description>&lt;p>Letzte Woche kam das Postmortem zu Claude Code vom 23. April. Drei Bugs, zwei Monate gemindert ausgespielter Qualität, ein Usage-Limit-Reset für alle Pro-Abonnent:innen.&lt;/p>
&lt;p>Ich habe es zweimal gelesen. Beim zweiten Durchgang fing ich an, Notizen für meine eigene Agent-Pipeline zu machen.&lt;/p>
&lt;p>Für ein Unternehmen dieser Größe ist das Postmortem ungewöhnlich offen. Und es liest sich wie eine Checkliste der Fehlerbilder, die jedes Team mit produktiven KI-Agents irgendwann trifft. Lohnt sich, das Ganze als gratis Engineering-Review zu nehmen.&lt;/p></description></item><item><title>Claude Code mit lokalen LLMs und ANTHROPIC_BASE_URL: Ollama, LM Studio, llama.cpp, vLLM</title><link>https://renezander.com/de/guides/claude-code-lokales-llm-anthropic-base-url/</link><pubDate>Wed, 29 Apr 2026 07:30:00 +0200</pubDate><guid>https://renezander.com/de/guides/claude-code-lokales-llm-anthropic-base-url/</guid><description>&lt;p>&lt;em>Native Anthropic-Endpoints, Tool-Call-Kompatibilität und Context-Window-Sizing für lokales Claude Code.&lt;/em>&lt;/p>
&lt;p>&lt;em>Zuletzt getestet: April 2026. Siehe Changelog am Ende.&lt;/em>&lt;/p>
&lt;h2 id="tldr-cheat-sheet">TL;DR Cheat Sheet&lt;/h2>
&lt;table>
 &lt;thead>
 &lt;tr>
 &lt;th>Ziel&lt;/th>
 &lt;th>Setup&lt;/th>
 &lt;/tr>
 &lt;/thead>
 &lt;tbody>
 &lt;tr>
 &lt;td>MacBook Air&lt;/td>
 &lt;td>Gemma 4 26B-A4B Q4, &lt;strong>32K Context&lt;/strong>, LM Studio oder Ollama&lt;/td>
 &lt;/tr>
 &lt;tr>
 &lt;td>MacBook Pro&lt;/td>
 &lt;td>Gemma 4 26B-A4B Q4 / UD-Q4, &lt;strong>64K Context&lt;/strong>, llama.cpp oder LM Studio&lt;/td>
 &lt;/tr>
 &lt;tr>
 &lt;td>Claude Code Minimum&lt;/td>
 &lt;td>&lt;strong>32K Context&lt;/strong> (alles darunter ist eine Chat-Demo)&lt;/td>
 &lt;/tr>
 &lt;tr>
 &lt;td>Bestes lokales Backend&lt;/td>
 &lt;td>LM Studio oder Ollama zuerst; llama.cpp für Fortgeschrittene; vLLM für Server&lt;/td>
 &lt;/tr>
 &lt;tr>
 &lt;td>Vermeiden&lt;/td>
 &lt;td>8K / 16K Context, dichtes 31B Gemma 4 auf 32-GB-Maschinen, alte llama.cpp-Builds&lt;/td>
 &lt;/tr>
 &lt;/tbody>
&lt;/table>
&lt;h2 id="die-faustregel-für-lokales-claude-code">Die Faustregel für lokales Claude Code&lt;/h2>
&lt;p>Drei Faktoren entscheiden, ob eine lokale Claude-Code-Session funktioniert:&lt;/p></description></item></channel></rss>