Open WebUI ist eine der am schnellsten wachsenden Open-Source-KI-Plattformen weltweit. Als Managed Service von giftGRÜN wird sie zum Enterprise-tauglichen KI-Fundament für Ihre Organisation – ohne Vendor-Lock-in, ohne Lizenzgebühren für die Plattform.
Open Source · Managed Service · DSGVO-konform
Das KI-Fundament für Ihre Organisation.
Open WebUI von giftGRÜN: Eine zentrale KI-Plattform für alle Modelle, alle Teams, alle Aufgaben. Günstiger als Einzelabos. Flexibler als jede Insellösung. Ohne Vendor-Lock-in. Wir beraten, implementieren und betreiben – schon ab 100 € im Monat.
DAS PROBLEM
KI-Wildwuchs: teuer, unflexibel, unkontrolliert.
ChatGPT Plus hier, Claude Pro dort, Copilot da drüben. Jedes Team bucht eigene Abos. Sie zahlen pro Kopf – egal ob viel oder wenig genutzt. Und keine IT-Abteilung hat den Überblick, welche Daten wo landen.
Viele Unternehmen stehen vor dem Dilemma: Öffentliche KI-Tools sind intern nicht freigegeben, aber Mitarbeitende nutzen sie trotzdem – unkontrolliert, über private Accounts. Das Ergebnis: Daten bei US-Anbietern, keine Governance, kein Audit-Trail.
WARUM OPEN WEBUI
Eine Plattform. Alle Modelle. Volle Kontrolle.
Günstiger als Einzelabos
KI-Nutzung wird nach tatsächlichem Verbrauch abgerechnet – nicht pro Kopf. Bei lokalem Betrieb sogar ohne laufende API-Kosten. In der Praxis oft 50–80 % günstiger als klassische Abo-Modelle.
Modellfreiheit ohne Lock-in
GPT-4o, Claude, Gemini, Llama, Mistral, Qwen – alle über eine Oberfläche. Lokale Modelle via Ollama oder vLLM. Je nach Datenschutzklasse frei wählen: Cloud-API, Private Cloud oder komplett lokal.
Datenschutz & Compliance
Hosting in Deutschland oder On-Premise. Architektur ausgelegt auf DSGVO, SOC 2, HIPAA, ISO 27001 und FedRAMP. Air-Gapped-Deployments möglich – kein Byte verlässt Ihr Netzwerk.
VERBREITUNG
Open WebUI im produktiven Einsatz – weltweit
30.000
5.000
90K
FUNKTIONEN
Mehr als ein Chat-Interface – eine vollständige KI-Plattform
- KI-Chat & Modelle
- Wissensbasis (RAG)
- Automatisierung & Erweiterung
- Administration, Sicherheit & Skalierung
GPT-4o, Claude, Gemini, Llama, Mistral, Qwen – alle über eine Oberfläche. Wechseln Sie das Modell per Klick, je nach Aufgabe.
Spracheingabe und -ausgabe nativ integriert. Plus: Bildanalyse, Dokumentenverarbeitung und Code-Highlighting im selben Interface.
Open-Source-Modelle auf eigener Hardware. Komplett Air-Gapped betreibbar – kein Byte verlässt Ihr Netzwerk.
Eigene KI-Assistenten pro Abteilung erstellen: System-Prompt, Wissensbasis und Verhalten in einem Profil gebündelt. HR-Bot, Support-Bot, Fach-Bot – ohne separate Infrastruktur.
PDFs, Word, Markdown, Webseiten oder ganze Ordner hochladen. Die KI antwortet auf Basis Ihrer Inhalte – Onboarding-Unterlagen, Richtlinien, Produktwissen, FAQ.
ChromaDB, Qdrant oder Milvus – je nach Skalierungsbedarf. Hybride Suche und Re-Ranking-Modelle für optimale Retrievalqualität.
Jede Antwort referenziert das Quelldokument. Ihre Mitarbeitenden können Aussagen jederzeit nachprüfen.
Separate Knowledge Bases für Abteilungen, Projekte oder Kunden – sauber getrennt, zentral verwaltet. Mit #Dateiname direkt im Chat referenzierbar.
Modulare, OpenAI-API-kompatible Workflows: Eigene Geschäftsregeln, Filter, CRM/ERP-Integration oder Logging als Pipeline implementieren.
Externe Datenquellen und Tools als MCP-Server anbinden. Ideal für Organisationen mit n8n-Workflows, eigenen APIs oder Drittsystemen – Open WebUI wird zur KI-Steuerzentrale.
KI greift auf Datenbanken zu, führt Berechnungen durch, ruft APIs auf – direkt aus dem Chat. Keine separate Entwicklungsumgebung nötig.
Zentrale Proxy-Schicht für alle Modellprovider: Azure, AWS Bedrock, eigene Endpunkte. Ein Gateway für alle KI-Dienste mit einheitlichem Monitoring und Budgetierung.
Admin, Manager, User – rollenbasiert steuern, wer auf welche Modelle, Funktionen und Wissensräume zugreifen darf.
Wer nutzt welches Modell wie oft? Token-Verbrauch, Kosten und Nutzungsmuster transparent – für Budgetierung und Compliance.
Betrieb auf deutschen Servern (Hetzner) oder komplett On-Premise bei Ihnen. Air-Gapped-Deployments für maximale Datenisolation.
Einmalanmeldung über bestehende Systeme. SCIM 2.0 für automatisiertes User-Lifecycle-Management mit Okta, Azure AD oder Google Workspace.
Redis-backed Sessions, Multi-Node-Deployments mit Load Balancer, Docker oder Kubernetes. Bis zu 99,99 % Uptime in Produktionsumgebungen.
Vollständig einsehbarer Quellcode. Keine Backdoors, keine intransparenten Datenflüsse. Aktive Community mit mehreren Updates pro Woche.
EINSATZSZENARIEN
Wie Organisationen Open WebUI einsetzen
Texte & Kommunikation
E-Mails, Berichte, Social Media, Pressemitteilungen – Teams nutzen KI-Vorlagen und Custom Agents für konsistente, schnelle Textproduktion.
Internes Wissensmanagement
Handbücher, Richtlinien und Protokolle als RAG-Wissensbasis. Neue Mitarbeitende finden Antworten sofort – Bestandswissen bleibt verfügbar, auch wenn erfahrene Teammitglieder gehen.
Mitgliederservice & Support
Custom Agents beantworten häufige Fragen automatisch und quellenbasiert. Ihr Team wird entlastet, die Antwortqualität steigt.
Entwicklung & Code
Code-Reviews, Debugging, Dokumentation – Entwicklerinnen und Entwickler wählen das beste Modell je nach Sprache und Aufgabe. Function Calling für direkte Tool-Integration.
Datenanalyse & Reporting
Tabellen auswerten, Trends erkennen, Berichte zusammenfassen. Via Pipelines direkt an CRM/ERP-Daten angeschlossen.
Fachliche Wissensdatenbank
Normen, Richtlinien, Regelwerke und Publikationen als durchsuchbare RAG-Basis. Die KI antwortet präzise und belegt – auch für Laien verständlich.
FÜR WEN?
Das richtige Argument für jeden Organisationstyp
Sie müssen nicht alles auf einmal entscheiden. Wir starten schlank, testen mit echten Nutzerinnen und Nutzer und bauen gezielt aus. So minimieren Sie Risiken und maximieren den Lerneffekt.
Mittelstand (DSGVO-sensibel)
Daten bleiben im Haus
Keine US-Cloud, keine unkontrollierten Datenflüsse. Ihre Mitarbeitenden nutzen KI – sicher und IT-freigegeben.
Wissensintensive Organisationen
Ihr Wissen wird KI-nutzbar
Interne Dokumente, Regelwerke und FAQ als KI-Kontext. Mitarbeitende fragen die KI – statt stundenlang zu suchen.
Organisationen mit IT-Team
Volle Kontrolle & Erweiterbarkeit
API-Kompatibilität, Pipelines, MCP und RBAC – für Teams, die KI strategisch in bestehende Systeme integrieren.
Teamübergreifende Nutzung
Governance für alle Abteilungen
Unterschiedliche Modelle und Wissensräume pro Team. Zentrale Verwaltung, dezentrale Nutzung.
Kostenorientierte Kunden
Keine nutzungsabhängigen API-Kosten
Bei lokalem Betrieb mit Ollama: keine laufenden API-Kosten. Keine Lizenzgebühren für die Community Edition.
Regulierte Branchen
Compliance-Konformität
Architektur ausgelegt auf Healthcare, Recht und Bildung. Audit-Log, Datenisolation und zertifizierbare Infrastruktur.
PREISMODELL
Fair bepreist: Plattform-Pauschale plus Nutzung
Keine Lizenz pro Nutzer. Die Plattform kostet einen festen Monatsbeitrag – KI-Nutzung wird nach tatsächlichem Verbrauch abgerechnet. Wer wenig nutzt, zahlt wenig. Wer viel nutzt, zahlt fair.
Starter
Für kleine Teams, die KI zentral und günstig nutzen wollen – ohne Abo-Chaos.
ab
100 €
/ Monat
Beinhaltet:
- Open WebUI Managed Hosting (DE)
- Alle Cloud-Modelle (GPT, Claude, Gemini)
- RAG-Wissensbasis inkl. 1 Knowledge Base
- Unbegrenzte Nutzer
- KI-Nutzung nach Verbrauch
- E-Mail-Support
Professional
Für Organisationen, die KI strategisch einsetzen – mit Automatisierung, SSO und Beratung.
ab
300 €
/ Monat
Beinhaltet:
- Alles aus Starter
- SSO / LDAP / SCIM 2.0
- Pipelines, Functions & MCP
- Custom Agents & Model Builder
- Mehrere RAG-Knowledge-Bases
- Lokale Modelle (optional)
- LiteLLM Middleware-Integration
- Quartals-Beratung & Onboarding
UNSER SERVICE
Von der Idee zur laufenden KI-Plattform – in 4 Schritten
HÄUFIGE FRAGEN
Was Sie wissen sollten
Was genau ist Open WebUI?
Open WebUI ist eine Open-Source-Plattform, die eine einheitliche Benutzeroberfläche für verschiedene KI-Modelle bietet. Statt einzelne Abos bei OpenAI, Anthropic oder Google zu buchen, nutzen Ihre Mitarbeitenden eine zentrale Plattform – mit allen Modellen, unter Ihrer Kontrolle. Der Quellcode ist vollständig einsehbar, es gibt keine versteckten Backdoors oder intransparenten Datenflüsse.
Wie funktioniert die Abrechnung nach Nutzung?
Die Plattform-Pauschale deckt Hosting, Wartung und Support ab. Die KI-Nutzung (API-Calls an GPT, Claude etc.) wird nach Token-Verbrauch abgerechnet. So zahlen Wenig-Nutzer wenig, Power-User fair. Bei lokalem Betrieb mit Ollama entfallen die API-Kosten komplett. In der Praxis ist das oft 50–80 % günstiger als pro-Kopf-Abos.
Können wir auch komplett lokal arbeiten – ohne Cloud?
Ja. Open WebUI unterstützt lokale Modelle über Ollama und vLLM. Für maximale Datensicherheit sind Air-Gapped-Deployments möglich – komplett isoliert vom Internet. Die Architektur ist für SOC 2, HIPAA, DSGVO, FedRAMP und ISO 27001 Compliance ausgelegt. Wir beraten Sie zur passenden Infrastruktur.
Was ist RAG und brauche ich das?
RAG (Retrieval-Augmented Generation) ist das stärkste Produktivitäts-Argument: Die KI antwortet nicht nur aus ihrem Training, sondern auf Basis Ihrer eigenen Dokumente. PDFs, Word-Dateien, Webseiten oder Markdown werden in einer Knowledge Base indiziert. Open WebUI unterstützt mehrere Vektordatenbanken (ChromaDB, Qdrant, Milvus), hybride Suche und Re-Ranking-Modelle. Wichtig: RAG ist nur so gut wie die verfügbaren Daten – wir beraten Sie auch beim Wissensmanagement.
Was sind Custom Agents und Pipelines?
Im Model Builder erstellen Sie maßgeschneiderte KI-Assistenten: System-Prompt, Wissensbasis und Verhalten werden in einem Profil gebündelt. So entsteht ein HR-Bot, Support-Bot oder Fach-Bot – ohne separate Infrastruktur. Pipelines sind modulare Workflows: eigene Geschäftsregeln, Filter, CRM/ERP-Integration oder Logging lassen sich als Pipeline implementieren. Über MCP (Model Context Protocol) binden Sie zusätzlich externe Tools und APIs an.
Wie sicher sind unsere Daten?
Die Plattform wird auf deutschen Servern gehostet (z.B. Hetzner) oder On-Premise bei Ihnen. Sie entscheiden, welche Modelle genutzt werden – und ob Daten an Cloud-APIs gesendet werden oder alles lokal bleibt. RBAC, SSO/LDAP, SCIM 2.0 und Audit-Logs sind integriert. Air-Gapped-Betrieb ist möglich.
Was unterscheidet euer Angebot von einer Eigeninstallation?
Open WebUI ist Open Source – ja, Sie könnten es selbst installieren. Aber: Updates, Sicherheitspatches, Modell-Konfiguration, RAG-Optimierung, Pipeline-Entwicklung und Support kosten intern erheblich Zeit und DevOps-Know-how. Wir übernehmen alles als Managed Service. Plus: Wir beraten strategisch, welche Modelle und Workflows für Ihre Organisation am sinnvollsten sind – inklusive Wissensmanagement-Beratung für optimale RAG-Qualität.
Gibt es Einschränkungen beim Branding?
White-Label-Deployments (eigenes Logo, kein „Open WebUI“-Branding) sind bei mehr als 50 Benutzern an eine Enterprise-Lizenz gebunden. Für kleinere Installationen ist ein eigenes Branding in der Community Edition möglich. Wir klären das frühzeitig im Beratungsgespräch mit Ihnen.
Wie schnell sind wir live?
In der Regel innerhalb von 1–2 Wochen. Die Grundinstallation ist in wenigen Stunden erledigt. Die meiste Zeit investieren wir in die Konfiguration Ihrer Modelle, das Einrichten der Wissensbasis, die Erstellung von Custom Agents und das Onboarding Ihrer Teams.
Bereit für Ihr KI-Fundament?
Vereinbaren Sie ein kostenloses Beratungsgespräch. Wir zeigen Ihnen in 30 Minuten, wie Open WebUI Ihre Organisation voranbringt – inklusive Live-Demo mit Ihren eigenen Dokumenten.
Ihr strategischer Partner für die digitale Transformation
© 2025 giftGRÜN GmbH