
April 29, 2026 · 14 min read · guides
Claude Code auf lokalem LLM via ANTHROPIC_BASE_URL. Native Anthropic-Endpoints für Ollama, LM Studio, llama.cpp, vLLM. 32K-Kontext-Untergrenze.

March 20, 2026 · 10 min read · blog
Vollständiger Docker-Compose-KI-/ML-Dev-Stack: Ollama, Qdrant, Postgres, Redis, LiteLLM. Copy-paste-YAML, GPU-Support und First-Run-Kommandos für eine lokale KI-Dev-Umgebung. Kostenlose KI-Automatisierungs-Checkliste zum Download.