Eigenentwicklung / Evanto-Produkt

KI-PLATTFORM

Eigenentwicklung / Evanto-Produkt

Aus dem Wildwuchs öffentlicher KI-Tools und ungenutzter Firmenwissensquellen entsteht eine geschlossene, firmeneigene KI-Plattform — Chat, Wissensbasis, Dokumenten-Import und automatisierte Agenten unter einer Oberfläche, mit automatischer Datenschutz-Automatik und voller Datensouveränität.
Pattern KI-Auskunft auf der Website
  • .NET 10
  • Blazor WebAssembly
  • Photino (Desktop)

DIE AUSGANGSLAGE

Die Ausgangslage

Mitarbeiter wollen mit KI arbeiten — sie tun es längst, nur außerhalb des Unternehmens. Texte werden in öffentliche Chat-Tools kopiert, Dokumente an externe Übersetzer gesendet, Recherchen über fremde Suchen geführt. Was praktisch ist, ist gleichzeitig ein doppelter Verlust: sensible Daten verlassen das Haus, und das eigene Firmenwissen — Verträge, Handbücher, Confluence-Seiten, gewachsene SharePoint-Strukturen, Newsletter-Abos, Eingangs-E-Mails — bleibt für die KI unsichtbar.

Hand aufs Herz: Wer hat heute eine ehrliche Antwort darauf, wer welche Firmendaten in welche externe KI gepostet hat? Und wer kann garantieren, dass eine KI-Antwort, die Mitarbeiter ihrem Kunden weitergeben, tatsächlich aus dem aktuellen, internen Wissensstand stammt — und nicht aus einem zwei Jahre alten Internet-Schnipsel?

Eine generische Cloud-KI löst keines dieser beiden Probleme. Eine schnell zusammengeklickte Chat-Oberfläche vor einem Sprachmodell genauso wenig — sie ist wieder nur Chat, ohne Anbindung an die Inhalte und Routinen, die im Unternehmen tatsächlich Arbeit machen.

WAS WIR GEBAUT HABEN

Was wir gebaut haben

Eine geschlossene Plattform, die als dedizierte Einzelinstanz für ein Unternehmen läuft — entweder zentral als Web-Anwendung im Docker-Container oder autonom als native Desktop-App. Beide Varianten teilen sich dieselbe Oberfläche; Mitarbeiter merken nicht, in welchem Modus sie arbeiten. Was sie merken: alles, was sie für KI-gestützte Arbeit brauchen, ist an einem Ort — und alles, was an Daten dort hineingeht, bleibt in der eigenen Umgebung.

Der KI-Chat als zentraler Arbeitsbereich

Der Einstieg sieht aus wie ein moderner Chat — Antworten erscheinen Wort für Wort live, Dateien lassen sich anhängen, das Sprachmodell ist je nach Aufgabe wechselbar (Claude, GPT, Gemini, lokale Modelle u. v. m.), Gespräche sind speicherbar und durchsuchbar. Was ihn unterscheidet: Jede Antwort kann mit klickbaren Quellenverweisen direkt in den eigenen Wissensartikel führen. Mitarbeiter können eine gute Antwort an Kollegen weiterleiten oder als Word- oder PDF-Dokument im Corporate-Design herunterladen — ohne Copy-Paste-Bruch.

Die Wissensbasis als KI-Kontext

Unternehmensdokumente werden zur eigentlichen Antwortquelle. Word, PDF, Markdown, Excel, CSV, Bilder werden hochgeladen oder per Massen-ZIP eingelesen, automatisch in eine Vektor-Datenbank überführt und stehen der KI als Kontext zur Verfügung — semantisch durchsuchbar, also nach Bedeutung, nicht nach Stichworten. Die Wissensbasis ist nicht ein einziger Topf: getrennte Vaults für Abteilungen oder Projekte, vier Vertraulichkeitsstufen, rollenbasierter Zugriff, persönliche Vaults für jeden Nutzer. Wo eine Vektor-Datenbank nicht gewünscht ist, übernimmt eine schlanke BM25-Suche im Speicher denselben Job.

Vom Original ins durchsuchbare Wissen

Eine eigene Import-Seite überführt Inhalte aus sechs Quellen in dieselbe Pipeline:

  • Word und PDF — wahlweise per Syncfusion DocIO offline oder Mistral OCR, jeweils mit Bildern als Asset-Sidecar.
  • HTML und Web-URLs — vom Tracking- und Layout-Ballast befreit, Datentabellen behalten, Schriften-Hierarchie als Markdown-Überschriften erkannt.
  • Confluence — direkte Anbindung mit Bereichs- und Seiten-Browser, verknüpfte Anhänge inklusive.
  • SharePoint — über Microsoft Graph mit delegierter Authentifizierung (in produktiver Vorbereitung).
  • X-Artikel — einzelne Tweets oder Threads über die offizielle API als sauber strukturierter Wissensartikel.
  • E-Mail-Postfächer — IMAP, POP3 und Exchange On-Premise via EWS: Postfach auswählen, Datumsbereich und Absender-Filter setzen, Treffer per Häkchen importieren — Anhänge wandern als Assets mit ein.

Jeder Importauftrag durchläuft die Stufen Initial → Konvertieren → Bereit zur Prüfung → Veröffentlicht. Im Review-Dialog stehen Markdown-Editor, Frontmatter-Editor (Klassifikation, Abteilung, Rollen) und eine Vorschau in einem Tab nebeneinander. Erst wer freigibt, schiebt den Inhalt in die Wissensbasis und löst die Indexierung aus. Quell-Hash-Prüfung verhindert Doppeltes; bereits importierte Belege werden mit dem Verweis auf den vorhandenen Eintrag markiert.

KI-Agenten für die wiederkehrende Arbeit

Dort, wo Mitarbeiter täglich oder wöchentlich denselben KI-gestützten Schritt wiederholen, übernimmt ein Agent. Ein Agent ist eine einmal beschriebene Routine: eine Eingabequelle (kein Input, ein Vault-Ordner oder ein E-Mail-Postfach), eine Persönlichkeit (über eine Skill-Definition), eine Werkzeug-Auswahl mit klarer Lese-/Schreib-Kennung (lesen aus der Wissensbasis, neue Artikel anlegen, Artikel verschieben, E-Mails markieren oder ablegen), und eine optionale Cron-Zeitsteuerung.

Vor dem Echtbetrieb läuft jeder Agent zuerst im Trockenlauf: er zeigt vollständig, was er tun würde — geplante Schreibvorgänge erscheinen in einem Vorschau-Panel, ohne dass eine einzige Datei berührt wird. Wer mit dem Plan zufrieden ist, drückt auf Echt-Lauf — und sieht in einer Live-Zeitleiste jeden Schritt: Eingabe-Bundle, Werkzeug-Aufruf, Werkzeug-Ergebnis, Modell-Antwort. Iterations- und Laufzeit-Grenzen verhindern endlose Loops; ein Cancel-Knopf stoppt den Lauf jederzeit. Jeder Lauf wird mit Status, Tokens, Werkzeug-Aufrufen, Fehlern und Zusammenfassung dauerhaft protokolliert.

Ein konkretes Beispiel: Web-Clippings aus dem Browser landen automatisch in einem Vault-Ordner. Ein zeitgesteuerter Agent prüft jede Nacht den Ordner, normalisiert HTML-Reste, übersetzt englischsprachige Artikel ins Deutsche, klassifiziert sie thematisch, vergibt Tags und verschiebt sie in die richtige thematische Ablage. Was vorher Wochenstunden Aufräumzeit war, läuft jetzt um drei Uhr morgens — und liegt morgens als saubere, durchsuchbare Wissensbasis bereit.

Datenschutz, der nicht stört, sondern wirkt

Vor jeder Übergabe an ein Sprachmodell — Chat, Tool-Ergebnis, Agenten-Lauf — durchläuft der Inhalt einen zweistufigen PII-Schutz: zuerst musterbasiert, dann KI-gestützt (Presidio-basiert), in Deutsch und Englisch. Personenbezogene Daten werden durch Platzhalter wie [PERSON_1] ersetzt. Die KI sieht den Platzhalter; die Antwort wird vor der Ausgabe automatisch wieder re-identifiziert. Mitarbeiter merken nichts, außer einer kurzen Hinweismeldung, wenn etwas erkannt wurde. Eine Statusanzeige in der Kopfleiste zeigt jederzeit, ob der Schild aktiv und gesund ist; ein lückenloses Audit-Protokoll sichert die Compliance — bei Agenten inklusive Verweis auf Lauf und Auslöser.

Erweiterbarkeit ohne Programmierung

Drei Erweiterungswege ohne Code-Eingriff:

  • Skills — vorgefertigte Wissensmodule (Vertragsanalyse, Code-Review, E-Mail-Erstellung, Web-Clipping-Verarbeitung u. v. m.). Per ZIP-Upload eingespielt, hot-reloadbar, vom Nutzer pro Aufgabe wählbar — und auch als Persönlichkeitsdefinition für Agenten.
  • Externe Werkzeuge (MCP) — beliebige Drittsysteme über das Model Context Protocol anbinden: Datenbanken, APIs, interne Tools. OAuth-2.0-Client-Flow und HTTP-Header-Konfiguration inklusive. Pro Nutzer steuerbar.
  • Plugin-Architektur für Importquellen (in Vorbereitung) — neue Importquellen wie Notion, Jira oder eigene Wikis als isoliertes Plugin nachladbar, ohne die Kernanwendung neu zu kompilieren.

Eine Plattform — austauschbares Modell

Welches Sprachmodell die Arbeit macht, ist eine Konfigurationsfrage: Anthropic Claude, OpenAI GPT, Google Gemini, AWS Bedrock, Vertex AI oder ein lokal auf eigener Hardware laufendes Modell über Ollama. Damit bleibt die Wahl zwischen Cloud-Komfort und On-Premise-Kontrolle eine Entscheidung, die später revidiert werden kann — ohne den Code anzufassen.

WAS WIR DAMIT ERREICHEN

Was wir damit erreichen

  • Aus „irgendwo bei einem externen Anbieter" wird „in unserem Haus". Sensible Daten verlassen die Umgebung nicht ungefiltert. Personenbezogene Daten werden vor jeder KI-Übergabe automatisch pseudonymisiert.
  • Aus ungenutztem Firmenwissen wird KI-Kontext. Sechs Importquellen (Word, PDF, HTML, Confluence, X, E-Mail) speisen dieselbe Wissensbasis — Mitarbeiter bekommen Antworten aus dem internen Bestand, nicht aus dem öffentlichen Netz.
  • Aus Routine-Arbeit wird zeitgesteuerte Automatisierung. Newsletter-Triage, Beleg-Vorprüfung, Web-Clipping-Aufräumen, Wissensbasis-Pflege — was sich beschreiben lässt, lässt sich als Agent zeitgesteuert ausführen.
  • Trockenlauf macht Schreibvorgänge planbar — vor dem Schaden. Bevor ein Agent eine Datei verschiebt oder eine E-Mail archiviert, sehen Administratoren den vollständigen Plan.
  • Quellenverweise verhindern Halluzinations-Sorge. Antworten verlinken auf den konkreten Wissensartikel, nicht auf ein generisches „laut Wissensbasis".
  • Eine Oberfläche, zwei Welten. Web für Teams, Desktop für Hochsicherheits- oder Außendienst-Szenarien — identische UI, identischer Funktionsumfang, kein zweiter Schulungsaufwand.
  • Vendor Lock-in vermieden. KI-Anbieter, Vektor-Datenbank-Pfad und Importquellen sind austauschbar. Wer morgen aus regulatorischen oder Kostengründen wechseln will, ändert eine Konfiguration — keinen Code.

WAS BEWUSST NICHT AUTOMATISIERT WURDE

Was bewusst nicht automatisiert wurde

  • Die finale Freigabe von Importen. Konvertierung, Dedup-Prüfung und Frontmatter-Vorschlag sind automatisch — die Übernahme in die Wissensbasis ist explizit menschlich.
  • Die Auswahl, was ein Agent tut. Der Trockenlauf zeigt den Plan; das Drücken auf „Echt-Lauf" bleibt eine bewusste Entscheidung. Auch Cron-getriggerte Agenten setzen voraus, dass der Plan vorher mindestens einmal trocken validiert wurde.
  • Die Klassifikation von Vertraulichkeit. Frontmatter wird vorgeschlagen, nicht gesetzt. Welche Stufe ein Dokument trägt und wer es lesen darf, entscheidet weiterhin der zuständige Mensch.
  • Verbindliche Auskünfte zu rechtlichen oder regulatorischen Themen. Die KI antwortet aus den Hausdaten und verweist auf die Quelle — die Auslegung bleibt bei der Person mit der entsprechenden Verantwortung.
  • Inhalte ändern in fremden Systemen. Confluence, SharePoint und E-Mail-Postfächer werden gelesen, nicht zurückgeschrieben. Was gepflegt wird, bleibt dort, wo es gepflegt wird.
  • Multi-Tenancy. Bewusst nicht. Pro Unternehmen läuft eine dedizierte Instanz. Daten anderer Mandanten sind technisch nicht erreichbar, weil sie schlicht nicht im selben System liegen.

WARUM DIESES MUSTER ÜBERTRAGBAR IST

Warum dieses Muster übertragbar ist

Der Aufbau funktioniert überall dort, wo ein Unternehmen seine Mitarbeiter mit KI arbeiten lassen will, ohne sensible Daten an externe Anbieter zu verlieren — und wo das eigentliche Wertversprechen nicht im Sprachmodell liegt, sondern in der Kombination aus Sprachmodell, Firmenwissen, Routinen und Kontrolle: Steuer- und Wirtschaftsprüfungs-Kanzleien mit Mandanten-Akten, Versicherungen mit Schadensvorgängen und Klauselwerken, mittelständische Hersteller mit komplexen Produkt- und Service-Portfolios, Kommunalverwaltungen mit Bürger-Vorgängen, Bildungsträger mit kuratierten Lernmaterialien, Sozial- und Gesundheitsorganisationen mit besonders schutzbedürftigen Daten.

Das Muster: Eine Oberfläche → austauschbares Sprachmodell → eigene Wissensbasis mit RBAC → sechs Importquellen für vorhandene Inhalte → zeitgesteuerte Agenten für die wiederkehrende Arbeit → automatischer PII-Schutz vor jeder externen Übergabe → dedizierte Einzelinstanz statt geteilte Cloud.

Die KI nimmt den Mitarbeitern die Routine ab — die Recherche, das Aufbereiten, das Sortieren, das Verfassen einer ersten Fassung. Die fachliche und rechtliche Verantwortung bleibt beim Menschen — dort, wo sie hingehört. Die Daten bleiben im Haus — dort, wo sie hingehören. Und weil die Plattform offen für Modelle, Wissensquellen und Werkzeuge gebaut ist, wird sie nicht in zwei Jahren zur Altlast, sondern wächst mit dem mit, was die nächste Generation an KI-Modellen und Integrationen bringt.

Sprechen Sie uns an

Zwei Türen, eine Adresse.

Konkreter Engpass?

Lassen Sie uns 30 Minuten über Ihren Use Case sprechen.

Unverbindlich, kostenlos, mit konkreten Vorschlägen am Ende.

30-Min-Gespräch buchen

Eigene KI-Plattform?

Sehen Sie CompanyWizard live in Aktion.

Demo mit Ihren eigenen Daten möglich. Wir bringen die Pseudonymisierung schon eingerichtet mit.

Demo anfragen