Tag: Vllm

2 Beiträge

Claude Code mit lokalen LLMs und ANTHROPIC_BASE_URL: Ollama, LM Studio, llama.cpp, vLLM

Claude Code mit lokalen LLMs und ANTHROPIC_BASE_URL: Ollama, LM Studio, llama.cpp, vLLM

April 29, 2026 · 14 min read · guides
Claude Code auf lokalem LLM via ANTHROPIC_BASE_URL. Native Anthropic-Endpoints für Ollama, LM Studio, llama.cpp, vLLM. 32K-Kontext-Untergrenze.
Self-Hosted LLM auf Kubernetes: Produktives vLLM-Deployment

Self-Hosted LLM auf Kubernetes: Produktives vLLM-Deployment

April 5, 2026 · 14 min read · blog
Vollständiger Self-Hosted-LLM-Kubernetes-Leitfaden. vLLM auf GPU-Nodes mit Manifests, HPA, Monitoring und Kostenmodell. Praktiker-Notizen inklusive. Kostenlose KI-Automatisierungs-Checkliste zum Download.