<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Llm-Cost-Optimization on René Zander | KI-Automatisierungsberater</title><link>https://renezander.com/de/tags/llm-cost-optimization/</link><description>Recent content in Llm-Cost-Optimization on René Zander | KI-Automatisierungsberater</description><generator>Hugo</generator><language>de</language><lastBuildDate>Tue, 21 Apr 2026 06:00:00 +0200</lastBuildDate><atom:link href="https://renezander.com/de/tags/llm-cost-optimization/index.xml" rel="self" type="application/rss+xml"/><item><title>Claude API Prompt Caching: Wann es Geld spart und wann nicht</title><link>https://renezander.com/de/blog/claude-api-prompt-caching/</link><pubDate>Tue, 21 Apr 2026 06:00:00 +0200</pubDate><guid>https://renezander.com/de/blog/claude-api-prompt-caching/</guid><description>&lt;p&gt;Ich betreibe einen Agent, der bei jedem Turn eine Knowledge Base mit 15.000 Tokens liest. Mehrstufige Konversation, rund 40 Aufrufe pro Nutzer-Session. Ohne Caching zahlt jeder Turn erneut die vollen Input-Token-Kosten für ein Context Window, das sich nie ändert. Mit Claude API Prompt Caching wird die Knowledge Base einmal zum 1,25-fachen Input-Preis geschrieben, jeder weitere Read kostet dann das 0,1-fache. Nach dem zweiten Aufruf ist es bereits günstiger als die volle Input-Rate. Genau dafür existiert dieses Feature.&lt;/p&gt;</description></item></channel></rss>