Warum manche Unternehmen ihre KI selbst betreiben

Cloud-KI-Dienste wie ChatGPT sind praktisch, aber binden Unternehmen an einen Anbieter. Eine selbstgehostete Plattform kombiniert Datenkontrolle mit der Flexibilität, zwischen verschiedenen Sprachmodellen zu wechseln. Welche Architektur wirtschaftlich sinnvoll ist, hängt von Ihren konkreten Anforderungen ab: Datenkontrolle, Teamgröße, vorhandene IT-Kompetenz.

Das Problem existiert bereits

Ihr Team nutzt KI-Tools. Nicht weil Sie es erlaubt haben, sondern weil die Tools hilfreich sind. Im Vertrieb werden Kundenmails in ChatGPT eingegeben, um Antworten zu formulieren. Die Buchhaltung lässt sich Vertragstexte zusammenfassen. Die Entwickler debuggen Code mit Claude. Das passiert über private Accounts, außerhalb Ihrer IT-Infrastruktur, ohne Kontrolle darüber, was mit den Daten geschieht.

Die IT-Abteilung weiß das. Verbote funktionieren nicht. Sie können ChatGPT blockieren, dann weicht das Team auf andere Dienste oder VPNs aus. Sie können es in Schulungen verbieten, dann geschieht es heimlich. Das eigentliche Problem ist nicht die Nutzung, sondern die fehlende Kontrolle. Sensible Informationen fließen an externe Anbieter, ohne dass Sie nachvollziehen können, wer was wann hochgeladen hat. Sie haben keinen Audit-Trail, keine DSGVO-konforme Auftragsverarbeitung, keine Möglichkeit, im Nachhinein zu prüfen, welche Daten nach außen gegangen sind.

Eine selbstgehostete KI-Plattform löst dieses Problem nicht durch Verbot, sondern durch Alternative. Sie bieten Ihren Mitarbeitenden eine konforme Lösung an: funktional vergleichbar, aber unter Ihrer Kontrolle. Die Nutzung wird kanalisiert statt unterbunden. Das ist keine ideologische Entscheidung, sondern Risikominimierung. Die Frage ist höchstwahrscheinlich nicht, ob Ihr Team KI nutzt. Die Frage ist, ob Sie die Nutzung kontrollieren oder ignorieren.

Das Problem mit reinen Cloud-Lösungen

Wenn Sie das Shadow-IT-Problem erkannt haben, ist die naheliegende Lösung: ChatGPT Enterprise oder vergleichbare Cloud-Dienste. Das funktioniert und ist schnell verfügbar. Es bindet Sie aber strukturell an einen Anbieter. Ihre Chat-Historien, hochgeladenen Dokumente und Arbeitsabläufe liegen beim Provider. Wenn dieser die Preise erhöht, Funktionen ändert oder die Verfügbarkeit eingeschränkt wird, haben Sie keine schnelle Alternative. Sie haben drei Optionen: die aufgerufenen Preise bezahlen, die Daten migrieren oder sie aufgeben. Migration bedeutet: Alle Daten exportieren, Team umschulen, neue Prozesse etablieren. Das kostet Geld und Zeit in einem Umfang, der nur schwer kalkulierbar ist.

Dazu kommt: Sie können nicht zwischen Sprachmodellen wechseln. Wenn ein anderes Modell für Ihre Anwendung präziser, günstiger oder spezialisierter wäre, ist das irrelevant. Der Anbieter entscheidet, welche Modelle Sie nutzen können. Das ist keine Kritik an ChatGPT Enterprise (ein professionelles Produkt mit starkem Support), sondern eine strukturelle Konsequenz. Wer einen Dienst nutzt, akzeptiert dessen Bedingungen.

Die Hybrid-Architektur als Alternative

Eine selbstgehostete Lösung adressiert dieses Problem durch Trennung: Die Benutzeroberfläche und alle Daten liegen auf Ihrem eigenen Server. Die Intelligenz (das Sprachmodell) wird über eine API angebunden. Das bedeutet: Sie hosten die Plattform auf einem Server bei einem Provider Ihrer Wahl (z.B. Hetzner in Deutschland), während die eigentlichen Antworten von GPT-4, Claude oder anderen Modellen über deren Enterprise-APIs kommen.

Der Vorteil: Sie behalten die Kontrolle über alle Daten. Chat-Verläufe, hochgeladene Dokumente und Nutzerinformationen verbleiben auf Ihrem Server. Gleichzeitig können Sie das Sprachmodell wechseln, ohne dass Ihr Team irgendetwas davon merkt. Heute ChatGPT, morgen Claude, übermorgen ein spezialisiertes Modell. Die Oberfläche bleibt gleich. Das ist keine technische Spielerei, sondern wirtschaftliche Flexibilität. Wenn ein Anbieter die Preise verdoppelt oder die Qualität sinkt, wechseln Sie das Backend, nicht die gesamte Plattform.

Die zwei etablierten Lösungen

Für das Frontend stehen zwei marktführende Open-Source-Plattformen zur Verfügung: LibreChat und Open WebUI. Beide werden aktiv weiterentwickelt und haben große Communities.

LibreChat ist konzipiert als Nachbildung der ChatGPT-Oberfläche. Das bedeutet: Wer ChatGPT kennt, findet sich sofort zurecht. Kein Training nötig, keine Umgewöhnung. Open WebUI setzt auf ein moderneres Design mit Schwerpunkt auf Dokumentenverwaltung. Technisch läuft LibreChat auf Node.js mit MongoDB, Open WebUI auf Python mit SQL-Datenbanken. Wählen Sie nach Ihrer vorhandenen IT-Kompetenz.

Die Integration von Dokumentensuche ist bei Open WebUI Kernfunktionalität, nicht nachträglich angebaut. Für Anwendungsfälle, bei denen regelmäßig Dokumente hochgeladen und durchsucht werden (Verträge, Handbücher, Berichte), ist das ein messbarer Vorteil.

Beide Plattformen sind kostenlos verfügbar. Sie zahlen nur für Serverbetrieb und API-Nutzung. Die Entscheidung zwischen beiden hängt von Ihren bestehenden Systemen und Prioritäten ab: vertrautes Interface oder bessere Dokumentenverwaltung.

Was Sie damit gewinnen

Der wirtschaftliche Vorteil liegt in drei Bereichen: Datenkontrolle, Kostenstruktur und Flexibilität.

Datenkontrolle: Alle Chat-Verläufe und Dokumente bleiben auf Ihrem Server. Sie müssen niemandem vertrauen, weil Sie physisch kontrollieren, wo die Daten liegen. Das vereinfacht DSGVO-Compliance (Serverstandort Deutschland) und eliminiert Diskussionen über Standardvertragsklauseln bei US-Anbietern. Für öffentliche Träger und stark regulierte Branchen kann das ein Entscheidungskriterium sein.

Kostenstruktur: Cloud-Dienste wie ChatGPT Enterprise rechnen mit Festpreisen pro Nutzer. Ihre Kosten steigen linear mit der Teamgröße, unabhängig davon, wie intensiv die Plattform genutzt wird. Bei einer selbstgehosteten Lösung zahlen Sie für Serverbetrieb und verbrauchsabhängig für API-Aufrufe. Das skaliert anders: Wenn drei Personen die Plattform stark nutzen und zehn gelegentlich, zahlen Sie nur für die tatsächliche Nutzung. Kein Zwang, für Accounts zu zahlen, die kaum genutzt werden.

Flexibilität: Sie sind nicht an die Entscheidungen eines Anbieters gebunden. Wenn OpenAI ein Feature entfernt, das Sie brauchen, wechseln Sie zu Anthropic (Claude). Wenn ein spezialisiertes Modell für Ihr Fachgebiet verfügbar wird, binden Sie es ein. Die Oberfläche bleibt identisch. Das ist nicht nur technische Freiheit, sondern Risikominimierung: Kein einzelner Anbieter kann Ihre Arbeitsabläufe diktieren.

Die realen Kosten

Eine selbstgehostete Plattform verursacht Kosten auf zwei Ebenen: Infrastruktur und Betrieb. Wie hoch diese ausfallen, hängt davon ab, ob Sie die Plattform intern betreiben oder einen Dienstleister beauftragen.

Eigenbetrieb mit interner IT

Wenn Ihr Team die technische Kompetenz hat, besteht die Kostenstruktur aus drei Komponenten: Server-Miete (monatliche Fixkosten für die Infrastruktur), API-Kosten (verbrauchsabhängig, steigen mit der Nutzungsintensität) und initiale Einrichtungszeit. Die API-Kosten skalieren mit der Anzahl der Anfragen, nicht mit der Anzahl der Nutzer. Das bedeutet: Wenige intensive Nutzer können mehr Kosten verursachen als viele gelegentliche.

Das setzt voraus: Jemand in Ihrem Team kann Linux-Server administrieren, Backups konfigurieren, Updates einspielen und bei Problemen reagieren. Diese Person muss nicht Vollzeit für die Plattform arbeiten, aber die Kompetenz muss vorhanden sein. Verfügbarkeit ist Ihr Risiko. Wenn der Server ausfällt, liegt die Verantwortung bei Ihnen. Sie sparen Dienstleister-Kosten, tragen aber operative Last.

Der wirtschaftliche Vorteil gegenüber Cloud-Lösungen entsteht durch die unterschiedliche Kostenstruktur: Cloud-Dienste rechnen pro Nutzer ab, unabhängig von der tatsächlichen Nutzung. Bei Eigenbetrieb zahlen Sie verbrauchsabhängig. Je größer Ihr Team und je unterschiedlicher die Nutzungsintensität, desto deutlicher wird dieser Unterschied.

Betrieb mit Dienstleister

Wenn Sie keine interne IT-Kompetenz haben oder Verfügbarkeit garantiert brauchen, beauftragen Sie einen Dienstleister. Die Kostenstruktur verschiebt sich: Einmalige Setup-Kosten (Server-Aufsetzen, Plattform-Installation, Sicherheitskonfiguration, Single-Sign-On-Anbindung) und laufende Wartungskosten (Monitoring, Updates, Support, Backup-Management). Dazu kommen weiterhin Server-Miete und API-Kosten.

Sie kaufen damit drei Dinge: Verfügbarkeitsgarantie, professionellen Support und keine Bindung interner Ressourcen. Das kostet deutlich mehr als Eigenbetrieb. Die Frage ist: Ab wann rechtfertigt sich diese Investition?

Die Rechnung ändert sich mit der Teamgröße. Bei sehr kleinen Teams sind Cloud-Lösungen oft wirtschaftlicher, weil die Fixkosten des Selbsthostings (mit oder ohne Dienstleister) zu hoch sind. Ab einer gewissen Größe dreht sich die Rechnung: Die pro-Nutzer-Kosten von Cloud-Diensten übersteigen dann die Gesamtkosten einer selbstgehosteten Lösung mit Dienstleister. Dazwischen liegt eine Grauzone, in der regulatorische Anforderungen oder strategische Überlegungen (Unabhängigkeit, Flexibilität) den Ausschlag geben können.

Die eigentliche Frage

Was können Sie intern stemmen und was brauchen Sie wirklich? Alle drei Wege haben ihre Berechtigung. Die Entscheidung hängt von Ihrer IT-Ausstattung, Ihrer Teamgröße und Ihren Prioritäten ab. Wenn Sie unsicher sind, welcher Weg für Ihre Situation wirtschaftlich sinnvoll ist, lohnt sich ein Gespräch über die konkrete Rechnung.

Die Grenzen von Selbsthosting

Selbsthosting ist keine Universal-Lösung. Für sehr kleine Teams ohne technische Kompetenz für Serververwaltung und ohne spezifische Datenschutzanforderungen ist eine Cloud-Lösung wie ChatGPT Enterprise meistens wirtschaftlicher. Sie zahlen mehr pro Nutzer, erhalten aber professionellen Support, garantierte Verfügbarkeit und keine Verantwortung für Infrastruktur.

Umgekehrt: Selbsthosting macht Sinn bei regulatorischen Anforderungen, bei dem Wunsch nach Anbieterunabhängigkeit, bei größeren Teams mit unterschiedlicher Nutzungsintensität oder bei vorhandener IT-Kompetenz im Unternehmen. Je mehr dieser Faktoren zutreffen, desto eher rechtfertigt sich der Aufwand.

Wir unterstützen Unternehmen jeder Größe bei dieser Entscheidung: durch ehrliche Analyse der Anforderungen und die praktische Umsetzung der gewählten Lösung.

Veröffentlicht
11. Februar 2026
Zuletzt aktualisiert
10. Februar 2026
Autor
Lars Schimanski
Kostenfreies Erstgespräch

Kein Verkaufsgespräch. Wir hören zu, analysieren und sagen ehrlich, ob wir passen.

MW Studio