Wissen

AI Search und Chatbots für Unternehmen

Wann AI Search sinnvoll ist, wann Chatbots, wann beides — und worauf es im Setup ankommt: Datenanbindung, Berechtigungen, Qualität der Antworten.

Im Kompetenzfeld ki-beratung

Einführung

„Wir brauchen einen Chatbot" ist im Mittelstand ein häufiger Satz. Was meist gemeint ist, ist nicht der klassische Chatbot der 2010er, sondern ein KI-System, das Fragen aus dem eigenen Unternehmenswissen beantwortet. Technisch ist das oft AI Search mit einem Chat-Interface — und kein Chatbot im engeren Sinn.

Die Unterscheidung ist nicht akademisch. Sie entscheidet über Datenanbindung, Pflegeaufwand und Erwartungs-Management. Wer das durcheinanderbringt, baut entweder zu viel oder das Falsche.

AI Search vs. Chatbot

Chatbot (klassisch): regelbasierte oder dialog-getriebene Konversation, oft mit fest definierten Pfaden. Sinnvoll für Anfragen-Routing, Termin-Buchung, einfache FAQs. Nicht sinnvoll für Wissens-Recherche.

AI Search (oder „Chat mit eigenen Daten"): LLM beantwortet Fragen, indem es zur Laufzeit relevante Dokumente aus einer Wissensbasis findet (Retrieval) und auf Basis dieser Dokumente eine Antwort generiert. Sinnvoll für: Wissens-Recherche, Service-Anfragen, Onboarding, interne FAQ-Systeme.

In den meisten Mittelstands-Use-Cases ist AI Search das, was wirklich gebraucht wird. Der Chat ist nur das Interface.

Wann AI Search sinnvoll ist

  • Mitarbeitende suchen oft Informationen in Dokus, Wikis, Tickets, Sharepoints
  • Service-Mitarbeiter beantworten viele Standardanfragen aus Produktdoku
  • Onboarding neuer Mitarbeitender ist heute ineffizient
  • Wissensbasis ist groß, aber unsortiert oder schlecht durchsuchbar
  • Unterschiedliche Quellen sollen einheitlich durchsuchbar werden

Wann ein klassischer Chatbot sinnvoll ist

  • Klar definierte Aufgaben (Termin buchen, Anfragen-Typen klassifizieren)
  • Pfad-orientierte Konversation ohne offene Wissensfragen
  • Hochfrequente, immer gleiche Interaktionen

Architektur eines AI-Search-Systems

Ein produktives AI-Search-System hat vier Bausteine:

  1. Daten-Anbindung — Quellen werden indexiert (Confluence, Sharepoint, Drive, Helpdesk-System, Datenbank-Inhalte)
  2. Retrieval — bei jeder Frage werden relevante Dokumente gesucht (semantische Suche, oft auf Basis von Vektordatenbanken)
  3. Generation — LLM erstellt Antwort auf Basis der gefundenen Dokumente, mit Quellenverweis
  4. Berechtigungs-Logik — Antworten respektieren Zugriffsrechte des fragenden Users

Architektur-Begriff: Retrieval-Augmented Generation, kurz RAG.

Worauf es im Setup ankommt

Datenanbindung

  • Welche Quellen? — Erstmal die wichtigsten, später erweitern.
  • Wie aktuell? — Stündlich, täglich, on demand?
  • Wer hat Zugriff? — Berechtigungs-Spiegelung ist Pflicht, nicht optional.

Qualität der Antworten

  • Quellenverweis — Antworten ohne Quelle sind nicht prüfbar.
  • Halluzinations-Vermeidung — System muss „weiß ich nicht" sagen können.
  • Sprachstil — neutral, knapp, ohne Werbe-Sprache.

Berechtigungen

  • Pflicht-Architektur — Zugriff auf Dokumente entspricht den Quellsystem-Berechtigungen.
  • Audit-Trail — Wer hat wann was gefragt, mit welcher Antwort.
  • Datenschutz — Was wird wo verarbeitet, mit welchem Anbieter.

Realistischer Implementierungs-Aufwand

Ein erster produktiver AI-Search-Pilot mit einer Quelle ist in vier bis acht Wochen erreichbar. Die Erweiterung um weitere Quellen erfolgt iterativ. Laufende Kosten meist im niedrigen drei- bis vierstelligen Eurobereich pro Monat (Tool-Lizenzen, LLM-Nutzung), abhängig von Volumen und Modellauswahl.

Was den Aufwand streckt: chaotische Quell-Daten, unklare Berechtigungen, fehlender Owner, parallel laufende Anforderungs-Änderungen.

Was Mittelstands-Unternehmen typisch unterschätzen

  • Pflege-Aufwand — auch das beste AI-Search-System braucht Owner für Datenqualität
  • Adoption — Tools werden nicht von selbst genutzt, Schulung ist Teil der Implementierung
  • Datenqualität als Hürde — schlechte Quell-Daten ergeben schlechte Antworten

Zusammenfassung

Was im Mittelstand meist als „Chatbot" diskutiert wird, ist tatsächlich AI Search auf eigenem Wissen. Der Use Case ist konkret, der Aufwand überschaubar, der Nutzen direkt sichtbar. Erfolg hängt mehr von Datenanbindung, Berechtigungs-Architektur und Adoption ab als vom verwendeten Modell. Wer mit einer klar abgegrenzten Quelle startet und iterativ erweitert, hat in unter zwei Monaten produktiven Nutzen — und eine solide Basis für weitere KI-Use-Cases.

Häufige Fragen

Brauche ich einen Chatbot oder eine AI Search?
Chatbots sind sinnvoll für klar abgegrenzte Aufgaben (Anfragen-Routing, FAQ-Bot). AI Search ist sinnvoll, wenn Mitarbeitende oder Kund:innen Antworten aus einem größeren Wissensbestand brauchen. Oft ist die Antwort: beides — auf Basis derselben Wissensbasis.
Was ist der Unterschied zwischen KI-Beratung und KI-Implementierung?
Beratung beantwortet: Welche Use Cases lohnen sich, in welcher Reihenfolge und mit welchem Setup? Implementierung setzt diese Use Cases dann konkret um — Modellauswahl, Daten- und Kontextstrukturen, Integration in bestehende Tools, Pilotbetrieb und Übergabe.
Wie sicher ist KI-Nutzung im Unternehmen?
Mit den richtigen Setups durchaus produktionsreif: Enterprise-Konten der LLM-Anbieter mit Datenschutzgarantien, On-Premise- oder EU-gehostete Modelle, klare Richtlinien für Datenfreigabe. Risikoanalyse und Setup gehören zu jeder seriösen KI-Implementierung dazu.
Wie lange dauert eine KI-Implementierung?
Ein erster Pilot ist oft in vier bis acht Wochen produktiv. Vollständige Integration in Kernprozesse, inklusive Schulung und Übergabe, dauert je nach Scope drei bis sechs Monate. Wichtiger als die Geschwindigkeit ist die Verlässlichkeit der produktiven Nutzung.

Begriffe im Glossar

LLM
Large Language Model — Sprachmodell wie GPT-4, Claude oder Gemini, das natürliche Sprache versteht und generiert. Grundlage für Chatbots, AI Search, Textgenerierung und Agentic Systems.
AI Search
Suchsystem, das natürlichsprachige Anfragen versteht und kontextuelle Antworten aus Unternehmenswissen liefert — typischerweise umgesetzt mit Retrieval-Augmented Generation (RAG) auf Basis eines LLM.

Verwandte Inhalte