Tag: Ollama

2 Beiträge

Claude Code mit lokalen LLMs und ANTHROPIC_BASE_URL: Ollama, LM Studio, llama.cpp, vLLM

Claude Code mit lokalen LLMs und ANTHROPIC_BASE_URL: Ollama, LM Studio, llama.cpp, vLLM

April 29, 2026 · 14 min read · guides
Claude Code auf lokalem LLM via ANTHROPIC_BASE_URL. Native Anthropic-Endpoints für Ollama, LM Studio, llama.cpp, vLLM. 32K-Kontext-Untergrenze.
Docker-Compose-KI-/ML-Dev-Stack: Lokales LLM, Vector-DB, volle YAML

Docker-Compose-KI-/ML-Dev-Stack: Lokales LLM, Vector-DB, volle YAML

March 20, 2026 · 10 min read · blog
Vollständiger Docker-Compose-KI-/ML-Dev-Stack: Ollama, Qdrant, Postgres, Redis, LiteLLM. Copy-paste-YAML, GPU-Support und First-Run-Kommandos für eine lokale KI-Dev-Umgebung. Kostenlose KI-Automatisierungs-Checkliste zum Download.