Konkreter Engpass?
Lassen Sie uns 30 Minuten über Ihren Use Case sprechen.
Unverbindlich, kostenlos, mit konkreten Vorschlägen am Ende.
30-Min-Gespräch buchenEigenentwicklung / Evanto-Produkt
Aus dem Wildwuchs öffentlicher KI-Tools und ungenutzter Firmenwissensquellen entsteht eine geschlossene, firmeneigene KI-Plattform — Chat, Wissensbasis, Dokumenten-Import und automatisierte Agenten unter einer Oberfläche, mit automatischer Datenschutz-Automatik und voller Datensouveränität.
DIE AUSGANGSLAGE
Mitarbeiter wollen mit KI arbeiten — sie tun es längst, nur außerhalb des Unternehmens. Texte werden in öffentliche Chat-Tools kopiert, Dokumente an externe Übersetzer gesendet, Recherchen über fremde Suchen geführt. Was praktisch ist, ist gleichzeitig ein doppelter Verlust: sensible Daten verlassen das Haus, und das eigene Firmenwissen — Verträge, Handbücher, Confluence-Seiten, gewachsene SharePoint-Strukturen, Newsletter-Abos, Eingangs-E-Mails — bleibt für die KI unsichtbar.
Hand aufs Herz: Wer hat heute eine ehrliche Antwort darauf, wer welche Firmendaten in welche externe KI gepostet hat? Und wer kann garantieren, dass eine KI-Antwort, die Mitarbeiter ihrem Kunden weitergeben, tatsächlich aus dem aktuellen, internen Wissensstand stammt — und nicht aus einem zwei Jahre alten Internet-Schnipsel?
Eine generische Cloud-KI löst keines dieser beiden Probleme. Eine schnell zusammengeklickte Chat-Oberfläche vor einem Sprachmodell genauso wenig — sie ist wieder nur Chat, ohne Anbindung an die Inhalte und Routinen, die im Unternehmen tatsächlich Arbeit machen.
WAS WIR GEBAUT HABEN
Eine geschlossene Plattform, die als dedizierte Einzelinstanz für ein Unternehmen läuft — entweder zentral als Web-Anwendung im Docker-Container oder autonom als native Desktop-App. Beide Varianten teilen sich dieselbe Oberfläche; Mitarbeiter merken nicht, in welchem Modus sie arbeiten. Was sie merken: alles, was sie für KI-gestützte Arbeit brauchen, ist an einem Ort — und alles, was an Daten dort hineingeht, bleibt in der eigenen Umgebung.
Der Einstieg sieht aus wie ein moderner Chat — Antworten erscheinen Wort für Wort live, Dateien lassen sich anhängen, das Sprachmodell ist je nach Aufgabe wechselbar (Claude, GPT, Gemini, lokale Modelle u. v. m.), Gespräche sind speicherbar und durchsuchbar. Was ihn unterscheidet: Jede Antwort kann mit klickbaren Quellenverweisen direkt in den eigenen Wissensartikel führen. Mitarbeiter können eine gute Antwort an Kollegen weiterleiten oder als Word- oder PDF-Dokument im Corporate-Design herunterladen — ohne Copy-Paste-Bruch.
Unternehmensdokumente werden zur eigentlichen Antwortquelle. Word, PDF, Markdown, Excel, CSV, Bilder werden hochgeladen oder per Massen-ZIP eingelesen, automatisch in eine Vektor-Datenbank überführt und stehen der KI als Kontext zur Verfügung — semantisch durchsuchbar, also nach Bedeutung, nicht nach Stichworten. Die Wissensbasis ist nicht ein einziger Topf: getrennte Vaults für Abteilungen oder Projekte, vier Vertraulichkeitsstufen, rollenbasierter Zugriff, persönliche Vaults für jeden Nutzer. Wo eine Vektor-Datenbank nicht gewünscht ist, übernimmt eine schlanke BM25-Suche im Speicher denselben Job.
Eine eigene Import-Seite überführt Inhalte aus sechs Quellen in dieselbe Pipeline:
Jeder Importauftrag durchläuft die Stufen Initial → Konvertieren → Bereit zur Prüfung → Veröffentlicht. Im Review-Dialog stehen Markdown-Editor, Frontmatter-Editor (Klassifikation, Abteilung, Rollen) und eine Vorschau in einem Tab nebeneinander. Erst wer freigibt, schiebt den Inhalt in die Wissensbasis und löst die Indexierung aus. Quell-Hash-Prüfung verhindert Doppeltes; bereits importierte Belege werden mit dem Verweis auf den vorhandenen Eintrag markiert.
Dort, wo Mitarbeiter täglich oder wöchentlich denselben KI-gestützten Schritt wiederholen, übernimmt ein Agent. Ein Agent ist eine einmal beschriebene Routine: eine Eingabequelle (kein Input, ein Vault-Ordner oder ein E-Mail-Postfach), eine Persönlichkeit (über eine Skill-Definition), eine Werkzeug-Auswahl mit klarer Lese-/Schreib-Kennung (lesen aus der Wissensbasis, neue Artikel anlegen, Artikel verschieben, E-Mails markieren oder ablegen), und eine optionale Cron-Zeitsteuerung.
Vor dem Echtbetrieb läuft jeder Agent zuerst im Trockenlauf: er zeigt vollständig, was er tun würde — geplante Schreibvorgänge erscheinen in einem Vorschau-Panel, ohne dass eine einzige Datei berührt wird. Wer mit dem Plan zufrieden ist, drückt auf Echt-Lauf — und sieht in einer Live-Zeitleiste jeden Schritt: Eingabe-Bundle, Werkzeug-Aufruf, Werkzeug-Ergebnis, Modell-Antwort. Iterations- und Laufzeit-Grenzen verhindern endlose Loops; ein Cancel-Knopf stoppt den Lauf jederzeit. Jeder Lauf wird mit Status, Tokens, Werkzeug-Aufrufen, Fehlern und Zusammenfassung dauerhaft protokolliert.
Ein konkretes Beispiel: Web-Clippings aus dem Browser landen automatisch in einem Vault-Ordner. Ein zeitgesteuerter Agent prüft jede Nacht den Ordner, normalisiert HTML-Reste, übersetzt englischsprachige Artikel ins Deutsche, klassifiziert sie thematisch, vergibt Tags und verschiebt sie in die richtige thematische Ablage. Was vorher Wochenstunden Aufräumzeit war, läuft jetzt um drei Uhr morgens — und liegt morgens als saubere, durchsuchbare Wissensbasis bereit.
Vor jeder Übergabe an ein Sprachmodell — Chat, Tool-Ergebnis, Agenten-Lauf — durchläuft der Inhalt einen zweistufigen PII-Schutz: zuerst musterbasiert, dann KI-gestützt (Presidio-basiert), in Deutsch und Englisch. Personenbezogene Daten werden durch Platzhalter wie [PERSON_1] ersetzt. Die KI sieht den Platzhalter; die Antwort wird vor der Ausgabe automatisch wieder re-identifiziert. Mitarbeiter merken nichts, außer einer kurzen Hinweismeldung, wenn etwas erkannt wurde. Eine Statusanzeige in der Kopfleiste zeigt jederzeit, ob der Schild aktiv und gesund ist; ein lückenloses Audit-Protokoll sichert die Compliance — bei Agenten inklusive Verweis auf Lauf und Auslöser.
Drei Erweiterungswege ohne Code-Eingriff:
Welches Sprachmodell die Arbeit macht, ist eine Konfigurationsfrage: Anthropic Claude, OpenAI GPT, Google Gemini, AWS Bedrock, Vertex AI oder ein lokal auf eigener Hardware laufendes Modell über Ollama. Damit bleibt die Wahl zwischen Cloud-Komfort und On-Premise-Kontrolle eine Entscheidung, die später revidiert werden kann — ohne den Code anzufassen.
WAS WIR DAMIT ERREICHEN
WAS BEWUSST NICHT AUTOMATISIERT WURDE
WARUM DIESES MUSTER ÜBERTRAGBAR IST
Der Aufbau funktioniert überall dort, wo ein Unternehmen seine Mitarbeiter mit KI arbeiten lassen will, ohne sensible Daten an externe Anbieter zu verlieren — und wo das eigentliche Wertversprechen nicht im Sprachmodell liegt, sondern in der Kombination aus Sprachmodell, Firmenwissen, Routinen und Kontrolle: Steuer- und Wirtschaftsprüfungs-Kanzleien mit Mandanten-Akten, Versicherungen mit Schadensvorgängen und Klauselwerken, mittelständische Hersteller mit komplexen Produkt- und Service-Portfolios, Kommunalverwaltungen mit Bürger-Vorgängen, Bildungsträger mit kuratierten Lernmaterialien, Sozial- und Gesundheitsorganisationen mit besonders schutzbedürftigen Daten.
Das Muster: Eine Oberfläche → austauschbares Sprachmodell → eigene Wissensbasis mit RBAC → sechs Importquellen für vorhandene Inhalte → zeitgesteuerte Agenten für die wiederkehrende Arbeit → automatischer PII-Schutz vor jeder externen Übergabe → dedizierte Einzelinstanz statt geteilte Cloud.
Die KI nimmt den Mitarbeitern die Routine ab — die Recherche, das Aufbereiten, das Sortieren, das Verfassen einer ersten Fassung. Die fachliche und rechtliche Verantwortung bleibt beim Menschen — dort, wo sie hingehört. Die Daten bleiben im Haus — dort, wo sie hingehören. Und weil die Plattform offen für Modelle, Wissensquellen und Werkzeuge gebaut ist, wird sie nicht in zwei Jahren zur Altlast, sondern wächst mit dem mit, was die nächste Generation an KI-Modellen und Integrationen bringt.
Sprechen Sie uns an
Konkreter Engpass?
Unverbindlich, kostenlos, mit konkreten Vorschlägen am Ende.
30-Min-Gespräch buchenEigene KI-Plattform?
Demo mit Ihren eigenen Daten möglich. Wir bringen die Pseudonymisierung schon eingerichtet mit.
Demo anfragen