
April 29, 2026 · 14 min read · guides
Claude Code auf lokalem LLM via ANTHROPIC_BASE_URL. Native Anthropic-Endpoints für Ollama, LM Studio, llama.cpp, vLLM. 32K-Kontext-Untergrenze.

April 5, 2026 · 14 min read · blog
Vollständiger Self-Hosted-LLM-Kubernetes-Leitfaden. vLLM auf GPU-Nodes mit Manifests, HPA, Monitoring und Kostenmodell. Praktiker-Notizen inklusive. Kostenlose KI-Automatisierungs-Checkliste zum Download.