KI-Berater finden: Worauf du 2026 wirklich achten solltest
Einen guten KI-Berater zu finden ist 2026 schwerer geworden, nicht leichter. Das Feld ist gewachsen, jeder zweite LinkedIn-Profile trägt “AI Consultant” im Titel, und die meisten Entscheider haben keine Referenz-Erfahrung, um Substanz von Folien zu trennen.
Die nüchterne Realität: Ein Pitch klingt fast immer gut. Entscheidend ist, was dahinter liegt. Produktionsreifer Code, eine sichtbare Arbeitshistorie, ein klarer Standpunkt zu den Tools, die gerade den Markt prägen. Die meisten Pitches halten dem Praxistest nicht stand.
Dieser Guide ist eine Entscheidungshilfe aus der Praktikerperspektive. Ich baue selbst KI-Systeme in Produktion, arbeite mit Mittelständlern und Solopreneuren im DACH-Raum, und sehe aus nächster Nähe, wo Beratungs-Engagements scheitern. Die typischen Fehler liegen selten am Budget, sondern am falschen Berater-Typ für das eigene Problem.
Warum die Frage jetzt überall aufkommt
KI ist Chef-Thema geworden. Aufsichtsräte fragen nach einer KI-Strategie, Wettbewerber posten LinkedIn-Beiträge über ihre “KI-Transformation”, und die Geschäftsführung spürt Druck, irgendetwas zu zeigen. Gleichzeitig fehlt intern fast immer die Referenz-Erfahrung, um zu beurteilen, was realistisch ist.
Das erzeugt eine Situation, in der Entscheidungen oft auf Basis von Vertrauen und Netzwerk getroffen werden, nicht auf Basis technischer Prüfung. Ein guter Freund empfiehlt eine Agentur, ein Vortrag auf der Branchenkonferenz hat beeindruckt, ein Strategie-Haus war schon mal für die Digitalstrategie da. So landet man bei Beratern, die inhaltlich nicht passen, aber sozial gut angebunden sind.
Der Kern-Fehler: zu früh mit dem Markt reden, bevor der eigene Use Case intern sauber definiert ist. Wer ohne klare Frage in den Markt geht, bekommt die Antwort, die der jeweilige Anbieter am liebsten verkauft.
Die drei Arten von KI-Beratern
Grob lassen sich drei Typen unterscheiden. Alle drei haben ihre Berechtigung, aber sie lösen unterschiedliche Probleme.
Strategie-Berater sind die großen Häuser. Sie liefern Folien, Maturity-Assessments, Roadmaps, Governance-Frameworks. Die Arbeit endet typischerweise mit einer Strategie-Präsentation und einer Umsetzungs-Empfehlung. Tagessätze liegen zwischen 2.000 und 2.500 Euro pro Kopf, Projekte schnell im sechsstelligen Bereich. Sinnvoll, wenn Board-Sichtbarkeit, Stakeholder-Alignment und Change-Management die eigentlichen Engpässe sind. Nicht sinnvoll, wenn du konkret etwas bauen willst.
Implementierungs-Partner sind mittelgroße Agenturen und Boutique-Häuser mit 10 bis 80 Mitarbeitern. Sie setzen um, meist nach Stundensatz oder Projekt-Paket. Die Qualität variiert stark. Manche haben echte Engineering-Tiefe, andere sind gewachsen aus klassischer IT-Dienstleistung und halten sich mit den aktuellen KI-Stacks mehr schlecht als recht auf dem Laufenden. Stundensätze liegen bei 100 bis 180 Euro, Projekte zwischen 10.000 und 100.000 Euro.
Freelance-Praktiker sind Solo-Consultants, typischerweise Engineers, die selbst gebaut haben, bevor sie beraten. Günstiger als Agenturen in der Gesamtrechnung, ergonomischer als Konzerne, direkter Kontakt zum Menschen, der den Code schreibt. Schwäche: begrenzte Skalierung, keine Backup-Ressourcen im Krankheitsfall, kein Stakeholder-Management über mehrere Abteilungen. Stundensätze zwischen 100 und 180 Euro, Projekte zwischen 5.000 und 40.000 Euro.
Welcher Typ zu dir passt, hängt weniger vom Unternehmen ab als von der konkreten Frage. Ein DAX-Konzern kann für einen Pilot-Use-Case einen Freelancer beauftragen, und ein 30-Personen-Mittelständler kann eine Agentur brauchen, wenn mehrere Rollen parallel gefragt sind.
Was ein guter Berater 2026 leisten muss
Unabhängig vom Typ gibt es einen Grundstandard, den jeder ernsthafte KI-Berater 2026 erfüllen sollte. Die folgenden Punkte sind meine Minimalliste. Wer zwei oder mehr davon nicht abdeckt, hat im aktuellen Markt wenig verloren.
Hat selbst produktionsreife KI-Systeme gebaut. Nicht “ein Prototyp im Hackathon”, sondern ein System, das seit Monaten läuft, Nutzer hat, Fehler wirft und gewartet wird. Wenn die einzige Referenz ein Vortrag auf einer Konferenz ist, ist das kein Signal.
Kennt mindestens die Claude API und die OpenAI API, mit klaren Tradeoffs. Wer 2026 nur “ChatGPT” sagen kann, hat die Entwicklung der letzten zwei Jahre verschlafen. Ein guter Berater kann dir in wenigen Minuten erklären, warum Prompt Caching bei Claude anders funktioniert als bei OpenAI, wann Extended Thinking sinnvoll ist, und was Tool Use für deine Architektur bedeutet.
Hat einen klaren Standpunkt zu MCP, Tool Use und Prompt Caching. Das sind die drei Hebel, die 2026 über Kosten und Qualität von produktiven KI-Systemen entscheiden. Ein Berater ohne Meinung dazu ist nicht in der Materie.
Versteht deine Datenverarbeitungs-Architektur, nicht nur das KI-Stück. KI-Systeme scheitern fast nie am Modell, sondern an der Integration. Wer nicht nach deiner Datenquelle, deinem Auth-Modell und deinem Deployment-Target fragt, baut dir ein Prototyp, der nie produktiv geht.
Kann selbst Code schreiben, nicht nur delegieren. Das ist ein hartes Kriterium, aber in meiner Erfahrung trennt es die Ernsthaften von den Verkäufern. Wer im ersten Call den Hauptfluss deines Use Case skizzieren kann, inklusive Datenfluss, API-Calls und Fehlerbehandlung, hat gebaut.
Kann DSGVO konkret beantworten. Nicht “unser Legal-Team kümmert sich”, sondern klare Aussagen zu Auftragsverarbeitungsvertrag, EU-Hosting, Datenminimierung im Prompt, Logging und Retention. Wenn diese Antworten ausweichend sind, wird das Projekt später daran hängen.
Hat eine sichtbare Arbeitshistorie. GitHub-Repositories, technischer Blog, konkrete Referenzen. Nicht nur Logos auf der Website, sondern nachvollziehbare Spuren.
Red Flags bei KI-Beratern
Die folgenden Signale sind in meiner Erfahrung zuverlässig negativ. Ein einzelnes Signal ist kein Ausschluss, aber wenn sich mehrere häufen, lohnt sich die Fortsetzung nicht.
“Wir nutzen KI in allen Bereichen.” Das ist die erste Formulierung, bei der ich aufhöre zuzuhören. Ein ernsthafter Berater kann konkret sagen, wo KI Wert liefert und wo nicht.
Zertifikate statt Projekte. LinkedIn-Badges, AWS-Zertifikate, “Certified AI Engineer” von irgendeinem Online-Anbieter. Das sind Lernsignale, keine Praxissignale. In einem Feld, das sich alle drei Monate verändert, sind Zertifikate aus 2024 weitgehend wertlos.
Keine öffentliche Code-Historie. Wer seit Jahren mit KI arbeitet und kein einziges öffentliches Repository, keinen Blog-Post mit Code, keine Demo hat, ist entweder neu im Feld oder hat nichts, was er zeigen kann.
Nur Präsentations-Material, keine Demos. Wenn das Verkaufsgespräch zu 90 Prozent aus Folien besteht und bei der Frage nach einer Live-Demo gewechselt wird, solltest du misstrauisch werden.
“ChatGPT-Experte” als Qualifikation. ChatGPT ist ein Consumer-Produkt. Produktive KI-Systeme bauen auf APIs, nicht auf Chat-Interfaces. Wer sich so positioniert, spielt in einer anderen Liga als dein Projekt.
Kein Ansprechpartner mit technischem Tiefgang im Verkaufsgespräch. Das ist ein klassisches Agentur-Muster. Im Pitch sitzt der Account-Manager mit guten Folien, im Projekt arbeitet dann ein Junior, den du nie gesehen hast. Frage im ersten Call explizit, wer den Code tatsächlich schreibt.
Preismodell: festverdrahtete Jahresverträge ohne klare Deliverables. “12 Monate Retainer, 15.000 Euro pro Monat, wir liefern was sich ergibt.” Das ist kein Projekt, das ist eine Abonnement-Beziehung. Ohne klar umrissene Leistung und Messkriterien bekommst du am Ende keinen Wert, sondern Monatsrechnungen.
Gruene Flaggen
Die positiven Signale sind weniger zahlreich, aber zuverlässiger.
Kann dir in 20 Minuten den tatsächlichen Claude API-Flow für deinen Use Case skizzieren. Inklusive Systemprompt-Struktur, Tool-Definitionen, Fehlerpfade. Das ist ein harter Filter, den die meisten Kandidaten nicht bestehen.
Hat einen eigenen Blog mit technischen Deep-Dives. Nicht Marketing-Artikel, sondern echte Posts mit Code-Snippets, Problemen und Lösungen. Das ist das einfachste verfügbare Signal für laufende Praxis.
Zeigt offene Code-Beispiele oder Demos. Ein GitHub-Repository mit einem funktionierenden MCP-Server, eine öffentlich deployte Demo, ein Video, das den realen Flow zeigt. Das lässt sich nicht faken.
Referenziert konkrete Metriken aus abgeschlossenen Projekten. “Wir haben den manuellen Aufwand für Rechnungsfreigabe von 4 Stunden pro Tag auf 20 Minuten reduziert.” Nicht “deutlich verbessert”, sondern Zahlen mit Kontext.
Stellt harte Fragen zu deinen Anforderungen, statt nur zu präsentieren. Wer beim Erst-Gespräch mehr fragt als er redet, denkt konkret über dein Problem nach.
Empfiehlt dir auch mal, etwas nicht zu tun. Ein Berater, der jeden vorgeschlagenen Use Case gut findet, verkauft dir Zeit, keine Expertise.
Preismodelle und faire Saetze
Die Preisspannen am Markt sind 2026 weit, und ohne Kontext fallen Angebote schnell in die Kategorie “was auch immer du glauben willst”. Hier die Orientierungswerte aus meiner Praxis.
Strategie-Häuser rechnen mit 150 bis 300 Euro pro Stunde, Tagessätze bis 2.500 Euro. Das ist der Marktpreis für die Marke und die Methodik. Mehrmonatige Projekte landen schnell bei mehreren hunderttausend Euro.
Agenturen liegen bei 100 bis 180 Euro pro Stunde, Projekt-Pakete zwischen 10.000 und 100.000 Euro. Hier ist die Streuung am größten, und der Preis sagt wenig über die Qualität aus.
Freelance-Praktiker liegen bei 100 bis 180 Euro pro Stunde, Projekte zwischen 5.000 und 40.000 Euro. Mein eigener Satz ist 130 Euro pro Stunde bei Projekt-Paketen in derselben Bandbreite.
Zur Tagessatz-Mathematik, die oft übersehen wird: ein Tagessatz von 1.000 Euro entspricht 200 Euro pro Stunde bei fünf effektiven Arbeitsstunden, und fünf effektive Stunden sind bei einem Beratungs-Tag realistisch. Wer dir einen Tagessatz von 2.500 Euro nennt, rechnet effektiv mit 500 Euro pro Stunde. Das kann gerechtfertigt sein, aber nur bei klarem Qualitäts-Grund.
Rote Flagge: signifikant über Marktpreisen ohne nachvollziehbare Begründung. Wenn die Antwort auf “warum dieser Preis” ausweichend bleibt, ist der Preis das Problem, nicht deine Verhandlungsposition.
Workshop, Pilot, Langfrist: welche Groesse passt
Die falsche Grösse des Engagements ist einer der häufigsten Fehler. Zu grosse Commits zu früh, zu kleine Commits für strategische Fragen. Die folgenden vier Formate decken die meisten realen Situationen ab.
Ein Workshop von 0,5 bis 2 Tagen eignet sich für Strategie-Fragen, Use-Case-Auswahl und Architektur-Reviews. Du hast eine konkrete Frage und brauchst eine strukturierte Antwort, nicht einen Umsetzungs-Partner. Das ist auch der typische Einstiegspunkt, um einen Berater kennenzulernen, bevor du ihn für ein grösseres Engagement buchst.
Ein Pilot von 4 bis 8 Wochen ist der klassische MVP-Ansatz. Der Berater baut zusammen mit deinem internen Team einen ersten produktiven Use Case, Wissenstransfer läuft parallel. Ziel ist nicht die perfekte Lösung, sondern ein laufendes System und ein internes Team, das damit weiterarbeiten kann.
Ein Langfrist-Engagement über 3 bis 12 Monate ist sinnvoll, wenn interne Kapazität fehlt und Aufbau nicht kurzfristig verfügbar ist. Vorsicht: je länger das Engagement, desto wichtiger sind klar definierte Meilensteine und Kündigungsklauseln. Monatspauschalen ohne Deliverables enden in Abhängigkeit.
Ein Interim- oder Fractional-CTO passt für Startups und kleine Mittelständler, die KI-strategisch aufstellen wollen, aber keinen festen CTO finanzieren können. Typisch sind 1 bis 2 Tage pro Woche über 6 bis 12 Monate.
Freelancer oder Agentur
Die Entscheidung zwischen Freelancer und Agentur ist weniger eine Frage des Budgets als der Projekt-Struktur.
Freelancer passt, wenn der Use Case klar ist, du in der Pilot-Phase bist, das Budget unter 50.000 Euro liegt und der direkte Kontakt zum Umsetzer wichtig ist. Auch bei spezialisierten Themen wie Claude API, MCP-Integration oder produktionsreifen Agenten bist du beim Freelancer oft näher am aktuellen Stand.
Agentur passt, wenn mehrere Rollen gleichzeitig gefragt sind (Engineer plus Designer plus PM), wenn eine Langfrist-Partnerschaft über mehrere Jahre geplant ist oder wenn Ausschreibungs- und Beschaffungs-Regeln einen Einzel-Freelancer ausschliessen. Viele Konzerne können aus Compliance-Gründen keine Einzelpersonen beauftragen.
Konzern-Beratung passt, wenn Board-Sichtbarkeit, Stakeholder-Management und Change-Management die eigentlichen Hebel sind. Wenn du eine KI-Strategie durch drei Organisations-Ebenen drücken musst, ist das ein anderes Spiel als ein technisches Projekt.
Details zur Freelancer-Seite habe ich in einem separaten Guide zum Beauftragen von Freelance AI Engineers behandelt.
Der Auswahl-Prozess konkret
Ein strukturierter Auswahl-Prozess senkt die Fehlerquote deutlich. Der folgende Ablauf hat sich bei meinen Kunden bewährt.
Schritt 1: Use Case und Erfolgs-Metrik intern definieren, bevor du mit Beratern sprichst. Was genau soll das System tun, wer nutzt es, woran misst du Erfolg. Ohne diese Klärung wirst du zum Käufer von Angeboten statt zum Einkäufer von Lösungen.
Schritt 2: Shortlist von 3 bis 5 Kandidaten zusammenstellen. Quellen: eigenes Netzwerk, LinkedIn (nach konkreten Skills, nicht nach “AI Consultant”), GitHub-Profile, Malt, Upwork. Achte auf Praxissignale in den Profilen, nicht auf Selbstbeschreibungen.
Schritt 3: Erst-Gespräch von 30 Minuten, unverbindlich. Achte auf: hört zu, stellt Fragen, skizziert Tradeoffs. Wer im Erst-Gespräch verkauft, verkauft später auch, wenn du schon bezahlt hast.
Schritt 4: Technisches Deep-Dive von 60 bis 90 Minuten mit einem Architektur-Entwurf für deinen Use Case. Das ist der Härtetest. Ein Berater, der aus dem Stand eine saubere Architektur skizzieren kann, hat gebaut. Wer in dieser Session nur allgemein bleibt, wird im Projekt nicht tiefer gehen.
Schritt 5: Referenzen einholen. Nicht Logos auf der Website, sondern zwei vorherige Kunden im direkten Gespräch. Frage konkret: “Was lief gut, was lief nicht, würdet ihr nochmal mit ihm arbeiten, und für welchen Use Case eher nicht.”
Schritt 6: Kleiner erster Auftrag vor dem grossen Commit. 1 bis 2 Wochen Workshop oder Architektur-Review als Einstieg. Das kostet wenig, liefert Klarheit und ist die günstigste verfügbare Versicherung gegen Fehlbesetzung.
Was in die erste Konversation gehoert
Ein gutes Erst-Gespräch ist in 30 Minuten informativ. Dafür musst du vorbereitet hineingehen. Die folgenden Punkte gehören auf deinen Zettel.
Dein konkreter Use Case, nicht “wir wollen KI”. Ein Satz, der das Problem und den gewünschten Output beschreibt. Beispiel: “Wir bekommen 400 Kundenanfragen pro Woche per Email, davon sind 60 Prozent Standardfragen, und wir wollen die automatisch beantworten lassen mit Review-Schritt durch den Support.”
Bestehender Stack. Sprache, Cloud-Anbieter, Datenbanken, Authentifizierung. Das ist kein vollständiges Architektur-Dokument, sondern drei bis fünf Punkte, die dem Berater eine Vorstellung vom Umfeld geben.
Rahmen. Budget-Grössenordnung, Zeitlinie, Team-Verfügbarkeit intern. Wer in dieser Phase mauert, bekommt unpassende Angebote zurück.
Regulatorisches. DSGVO ist der Standardfall, Branche-spezifische Compliance (KWG, MDR, MaRisk) kommt dazu. Wenn das relevant ist, früh ansprechen. Ein Berater, der diese Themen nicht souverän bespielen kann, ist im regulierten Umfeld kein sinnvoller Partner.
Offene Fragen, die du beantwortet haben willst. “Welche Tradeoffs sehen Sie zwischen API und Self-Hosting für unseren Fall?” oder “Wie würden Sie den Übergang vom Pilot in Produktion strukturieren?” Konkrete Fragen filtern schneller als jeder Fragebogen.
Vorsicht vor KI-Agenten-Verkaeufern
2026 boomt der Markt für “KI-Agenten”, und mit dem Boom kommen die Verkäufer. Viele positionieren sich als Agenten-Experten, ohne je einen produktiven Agenten gebaut zu haben. Die Symptome sind erkennbar: vage Begriffe wie “autonome Agenten”, “selbstlernende Systeme”, “Agent-Orchestrierung”, ohne dass im Gespräch konkret wird, welche Tools wie aufgerufen werden.
Der einfache Praxistest: Lass den Berater in einem 60-Minuten-Call einen realen Tool-Use-Flow für einen deiner Use Cases skizzieren. Welche Tools werden definiert, wie sieht der System-Prompt aus, wo läuft die Schleife, wie werden Fehler behandelt, wie stoppt der Agent. Wer das nicht in einem Call durchziehen kann, hat nichts gebaut.
Die Themen Build vs. Buy bei Agenten und die konkrete Architektur habe ich in einem separaten Guide zu AI Agents Build vs Buy und einem Guide zu KI-Automatisierung im Mittelstand behandelt.
Wann du keinen externen Berater brauchst
Nicht jede KI-Frage braucht einen Berater. Die folgenden Situationen sind Fälle, in denen externe Hilfe eher Geld kostet als Wert bringt.
Internes Team hat bereits Engineering-Erfahrung und mindestens eine Person mit LLM-Praxis. Wenn jemand bei dir schon einen MCP-Server gebaut hat oder regelmässig mit der Claude API arbeitet, ist der Beraterbedarf auf Architektur-Sparring reduziert. Ein halbtägiger Workshop reicht oft.
Use Case ist klein und abgeschottet. Ein interner Slack-Bot, der Meeting-Notizen zusammenfasst, braucht keinen Berater. Das baut dein bester Engineer in einer Woche. Die Anleitung zur Automatisierung konkreter Prozesse deckt solche Fälle in der Eigenregie ab.
Budget unter 5.000 Euro. Darunter lohnt sich kein externer Partner. Entweder du baust intern, oder du wartest, bis das Budget realistisch ist. Ein 3.000-Euro-Engagement liefert weder Strategie noch Umsetzung in sinnvoller Tiefe.
Die Organisation ist noch nicht bereit. Wenn Datenqualität, Prozess-Dokumentation und Entscheidungswege im Chaos sind, liefert kein Berater ein funktionierendes System ab. Erst intern aufräumen, dann extern einkaufen.
Meine eigene Positionierung
Zur Transparenz: Ich bin Freelance AI Engineer, seit Jahren mit LLM-Systemen in Produktion. Schwerpunkte: Claude API, TypeScript, Go, DevOps, MCP-Server. Zielgruppe sind Mittelständler und Solopreneure im DACH-Raum, die konkret automatisieren wollen, nicht Folien brauchen.
Mein Satz ist 130 Euro pro Stunde, Projekte typischerweise zwischen 5.000 und 40.000 Euro. Arbeits-Historie öffentlich: Blog mit technischen Deep-Dives auf renezander.com, Open-Source-Arbeit auf GitHub, LinkedIn als reneza. Für Tool-Vergleiche, die in fast jedem KI-Projekt relevant sind, habe ich den Vergleich von Make und n8n für Produktions-Workloads dokumentiert.
Ich bin kein Strategie-Haus. Wer eine dreissigseitige KI-Roadmap mit Maturity-Assessment braucht, bekommt bei mir ein schlechtes Produkt. Wer einen konkreten Use Case hat, ein produktives System bauen will und einen Engineering-Partner sucht, ist richtig.
Wie du jetzt vorgehst
Drei konkrete Schritte, die sich in der nächsten Woche umsetzen lassen.
Erster Schritt: schreibe deinen Use Case und deine Erfolgs-Metrik in einen Absatz auf. Wenn das nicht gelingt, ist die Frage nicht reif für externe Beratung, und die Vorarbeit liegt noch intern.
Zweiter Schritt: erstelle eine Shortlist von drei bis fünf Kandidaten. Mindestens einer davon sollte ein Freelancer sein, auch wenn du am Ende zur Agentur tendierst. Der Vergleich hilft dir, Preise und Vorgehen einzuordnen.
Dritter Schritt: führe Erst-Gespräche mit dem Check aus diesem Guide im Hinterkopf. Wer auf die technischen Fragen konkret antwortet und auf die strategischen Fragen hart zurückfragt, ist ein ernsthafter Kandidat. Alle anderen kannst du streichen.
Wenn du mit einem Freelance-Praktiker arbeiten willst und deine Frage zum Profil oben passt, erreichst du mich über das Kontakt-Formular auf renezander.com.