Open Source · Managed Service · DSGVO-konform

Das KI-Fundament für Ihre Organisation.

Beratungsgespräch vereinbaren

DAS PROBLEM

KI-Wildwuchs: teuer, unflexibel, unkontrolliert.

WARUM OPEN WEBUI

Eine Plattform. Alle Modelle. Volle Kontrolle.

Open WebUI ist eine der am schnellsten wachsenden Open-Source-KI-Plattformen weltweit. Als Managed Service von giftGRÜN wird sie zum Enterprise-tauglichen KI-Fundament für Ihre Organisation – ohne Vendor-Lock-in, ohne Lizenzgebühren für die Plattform.

Günstiger als Einzelabos

KI-Nutzung wird nach tatsächlichem Verbrauch abgerechnet – nicht pro Kopf. Bei lokalem Betrieb sogar ohne laufende API-Kosten. In der Praxis oft 50–80 % günstiger als klassische Abo-Modelle.

Modellfreiheit ohne Lock-in

GPT-4o, Claude, Gemini, Llama, Mistral, Qwen – alle über eine Oberfläche. Lokale Modelle via Ollama oder vLLM. Je nach Datenschutzklasse frei wählen: Cloud-API, Private Cloud oder komplett lokal.

Datenschutz & Compliance

Hosting in Deutschland oder On-Premise. Architektur ausgelegt auf DSGVO, SOC 2, HIPAA, ISO 27001 und FedRAMP. Air-Gapped-Deployments möglich – kein Byte verlässt Ihr Netzwerk.

Kriterium
Einzelabos (ChatGPT, Claude etc.)
Open WebUI by giftGRÜN
Kosten
Pro Nutzer, pro Monat – egal ob genutzt
Plattform-Pauschale + Verbrauch – oft 50–80 % günstiger
Modellauswahl
Nur das eine Modell des Anbieters
50+ Modelle frei wählbar, lokal und Cloud
Lokale Modelle
Nicht möglich
Llama, Mistral, Qwen u.v.m. via Ollama/vLLM
Wissensbasis (RAG)
Begrenzt oder nicht vorhanden
Volle RAG mit ChromaDB, Qdrant oder Milvus
Custom Agents
Nur innerhalb einer Plattform
Model Builder: eigene Chatbots pro Abteilung/Aufgabe
Automatisierung
Kaum möglich
Pipelines, Functions, MCP, Webhooks, LiteLLM
Datenschutz
Daten bei US-Anbieter
On-Premise, Air-Gapped, DE-Cloud, DSGVO/SOC 2
Nutzerverwaltung
Admin-Funktionen begrenzt
RBAC, Teams, SSO, LDAP, SCIM 2.0, Audit-Log
Open Source
Nein – proprietär, Blackbox
Vollständig einsehbar, keine Backdoors, Community-driven
Skalierbarkeit
Vom Anbieter festgelegt
Redis, Multi-Node, Kubernetes – bis 99,99 % Uptime
OpenAI GPT-4o, o1, o3 • Anthropic Claude 3.5 / 4 • Google Gemini Pro • Meta Llama 3 / 4 • Mistral Large & lokal • Ollama lokaler Betrieb • LiteLLM KI-Middleware •
 

OpenAI GPT-4o, o1, o3 • Anthropic Claude 3.5 / 4 • Google Gemini Pro • Meta Llama 3 / 4 • Mistral Large & lokal • Ollama lokaler Betrieb • LiteLLM KI-Middleware •
 

OpenAI GPT-4o, o1, o3 • Anthropic Claude 3.5 / 4 • Google Gemini Pro • Meta Llama 3 / 4 • Mistral Large & lokal • Ollama lokaler Betrieb • LiteLLM KI-Middleware •
 

VERBREITUNG

Open WebUI im produktiven Einsatz – weltweit

30.000

+
Studierende & Mitarbeitende

5.000

+
Nutzerinnen & Nutzer

90K

+
GitHub Stars

FUNKTIONEN

Mehr als ein Chat-Interface – eine vollständige KI-Plattform

50+ KI-Modelle
GPT-4o, Claude, Gemini, Llama, Mistral, Qwen – alle über eine Oberfläche. Wechseln Sie das Modell per Klick, je nach Aufgabe.
Voice-Chat & multimodale Eingaben
Spracheingabe und -ausgabe nativ integriert. Plus: Bildanalyse, Dokumentenverarbeitung und Code-Highlighting im selben Interface.
Lokale Modelle via Ollama & vLLM
Open-Source-Modelle auf eigener Hardware. Komplett Air-Gapped betreibbar – kein Byte verlässt Ihr Netzwerk.
Custom Agents & Model Builder
Eigene KI-Assistenten pro Abteilung erstellen: System-Prompt, Wissensbasis und Verhalten in einem Profil gebündelt. HR-Bot, Support-Bot, Fach-Bot – ohne separate Infrastruktur.
Eigene Dokumente als KI-Kontext
PDFs, Word, Markdown, Webseiten oder ganze Ordner hochladen. Die KI antwortet auf Basis Ihrer Inhalte – Onboarding-Unterlagen, Richtlinien, Produktwissen, FAQ.
Mehrere Vektordatenbanken
ChromaDB, Qdrant oder Milvus – je nach Skalierungsbedarf. Hybride Suche und Re-Ranking-Modelle für optimale Retrievalqualität.
Quellenangaben & Verifizierbarkeit
Jede Antwort referenziert das Quelldokument. Ihre Mitarbeitenden können Aussagen jederzeit nachprüfen.
Wissensräume pro Team
Separate Knowledge Bases für Abteilungen, Projekte oder Kunden – sauber getrennt, zentral verwaltet. Mit #Dateiname direkt im Chat referenzierbar.
Pipelines-Framework
Modulare, OpenAI-API-kompatible Workflows: Eigene Geschäftsregeln, Filter, CRM/ERP-Integration oder Logging als Pipeline implementieren.
MCP-Integration (Model Context Protocol)
Externe Datenquellen und Tools als MCP-Server anbinden. Ideal für Organisationen mit n8n-Workflows, eigenen APIs oder Drittsystemen – Open WebUI wird zur KI-Steuerzentrale.
Functions & Tool Calling
KI greift auf Datenbanken zu, führt Berechnungen durch, ruft APIs auf – direkt aus dem Chat. Keine separate Entwicklungsumgebung nötig.
LiteLLM als KI-Middleware
Zentrale Proxy-Schicht für alle Modellprovider: Azure, AWS Bedrock, eigene Endpunkte. Ein Gateway für alle KI-Dienste mit einheitlichem Monitoring und Budgetierung.
RBAC & granulare Zugriffsrechte
Admin, Manager, User – rollenbasiert steuern, wer auf welche Modelle, Funktionen und Wissensräume zugreifen darf.
Audit-Log & Nutzungsanalyse
Wer nutzt welches Modell wie oft? Token-Verbrauch, Kosten und Nutzungsmuster transparent – für Budgetierung und Compliance.
Hosting in Deutschland / On-Premise
Betrieb auf deutschen Servern (Hetzner) oder komplett On-Premise bei Ihnen. Air-Gapped-Deployments für maximale Datenisolation.
SSO, LDAP & SCIM 2.0
Einmalanmeldung über bestehende Systeme. SCIM 2.0 für automatisiertes User-Lifecycle-Management mit Okta, Azure AD oder Google Workspace.
Hochverfügbar & skalierbar
Redis-backed Sessions, Multi-Node-Deployments mit Load Balancer, Docker oder Kubernetes. Bis zu 99,99 % Uptime in Produktionsumgebungen.
Open Source & Transparenz
Vollständig einsehbarer Quellcode. Keine Backdoors, keine intransparenten Datenflüsse. Aktive Community mit mehreren Updates pro Woche.

EINSATZSZENARIEN

Wie Organisationen Open WebUI einsetzen

Texte & Kommunikation

E-Mails, Berichte, Social Media, Pressemitteilungen – Teams nutzen KI-Vorlagen und Custom Agents für konsistente, schnelle Textproduktion.

Marketing
Kommunikation
PR
Internes Wissensmanagement

Handbücher, Richtlinien und Protokolle als RAG-Wissensbasis. Neue Mitarbeitende finden Antworten sofort – Bestandswissen bleibt verfügbar, auch wenn erfahrene Teammitglieder gehen.

HR
Compliance
Onboarding
Mitgliederservice & Support

Custom Agents beantworten häufige Fragen automatisch und quellenbasiert. Ihr Team wird entlastet, die Antwortqualität steigt.

Verbände
Non-Profits
Service
Entwicklung & Code

Code-Reviews, Debugging, Dokumentation – Entwicklerinnen und Entwickler wählen das beste Modell je nach Sprache und Aufgabe. Function Calling für direkte Tool-Integration.

IT
Entwicklung
IT
DevOps
Datenanalyse & Reporting

Tabellen auswerten, Trends erkennen, Berichte zusammenfassen. Via Pipelines direkt an CRM/ERP-Daten angeschlossen.

Controlling
Geschäftsführung
Fachliche Wissensdatenbank

Normen, Richtlinien, Regelwerke und Publikationen als durchsuchbare RAG-Basis. Die KI antwortet präzise und belegt – auch für Laien verständlich.

Gesundheit
Recht
Bildung
Verlage

FÜR WEN?

Das richtige Argument für jeden Organisationstyp

Sie müssen nicht alles auf einmal entscheiden. Wir starten schlank, testen mit echten Nutzerinnen und Nutzer und bauen gezielt aus. So minimieren Sie Risiken und maximieren den Lerneffekt.

Mittelstand (DSGVO-sensibel)

Daten bleiben im Haus
Keine US-Cloud, keine unkontrollierten Datenflüsse. Ihre Mitarbeitenden nutzen KI – sicher und IT-freigegeben.

On-Premise
Air-Gapped
DSGVO

Wissensintensive Organisationen

Ihr Wissen wird KI-nutzbar
Interne Dokumente, Regelwerke und FAQ als KI-Kontext. Mitarbeitende fragen die KI – statt stundenlang zu suchen.

RAG
Knowledge Base
#Dateiname

Organisationen mit IT-Team

Volle Kontrolle & Erweiterbarkeit
API-Kompatibilität, Pipelines, MCP und RBAC – für Teams, die KI strategisch in bestehende Systeme integrieren.

Pipelines
MCP
SCIM 2.0

Teamübergreifende Nutzung

Governance für alle Abteilungen
Unterschiedliche Modelle und Wissensräume pro Team. Zentrale Verwaltung, dezentrale Nutzung.

RBAC
Custom Agents
Multi-User

Kostenorientierte Kunden

Keine nutzungsabhängigen API-Kosten
Bei lokalem Betrieb mit Ollama: keine laufenden API-Kosten. Keine Lizenzgebühren für die Community Edition.

Ollama lokal
0 € Lizenz
Open Source

Regulierte Branchen

Compliance-Konformität
Architektur ausgelegt auf Healthcare, Recht und Bildung. Audit-Log, Datenisolation und zertifizierbare Infrastruktur.

SOC 2
HIPAA
ISO 27001

PREISMODELL

Fair bepreist: Plattform-Pauschale plus Nutzung

Keine Lizenz pro Nutzer. Die Plattform kostet einen festen Monatsbeitrag – KI-Nutzung wird nach tatsächlichem Verbrauch abgerechnet. Wer wenig nutzt, zahlt wenig. Wer viel nutzt, zahlt fair.

Beinhaltet:

  • Open WebUI Managed Hosting (DE)
  • Alle Cloud-Modelle (GPT, Claude, Gemini)
  • RAG-Wissensbasis inkl. 1 Knowledge Base
  • Unbegrenzte Nutzer
  • KI-Nutzung nach Verbrauch
  • E-Mail-Support
Empfohlen

Beinhaltet:

  • Alles aus Starter
  • SSO / LDAP / SCIM 2.0
  • Pipelines, Functions & MCP
  • Custom Agents & Model Builder
  • Mehrere RAG-Knowledge-Bases
  • Lokale Modelle (optional)
  • LiteLLM Middleware-Integration
  • Quartals-Beratung & Onboarding
Enterprise-Lösungen mit On-Premise-Hosting, dedizierter GPU-Infrastruktur, Air-Gapped-Deployment und SLA auf Anfrage.

UNSER SERVICE

Von der Idee zur laufenden KI-Plattform – in 4 Schritten

1

Beratung

Wir analysieren Ihren Bedarf: Welche Modelle? Welche Daten als RAG-Basis? Wo entsteht der größte ROI? Cloud oder On-Premise?
2

Implementierung

Wir richten Ihre Instanz ein: Modelle, RAG-Knowledge-Bases, Custom Agents, Nutzerverwaltung, Pipelines – alles konfiguriert.
3

Onboarding

Wir schulen Ihre Teams: Plattform-Nutzung, Vorlagen erstellen, Wissensbasis pflegen, Agents konfigurieren.
4

Betrieb & Support

Wir betreiben, überwachen und aktualisieren. Updates, Sicherheit, Performance und Wissensmanagement-Beratung – alles inklusive.

HÄUFIGE FRAGEN

Was Sie wissen sollten

Was genau ist Open WebUI?

Open WebUI ist eine Open-Source-Plattform, die eine einheitliche Benutzeroberfläche für verschiedene KI-Modelle bietet. Statt einzelne Abos bei OpenAI, Anthropic oder Google zu buchen, nutzen Ihre Mitarbeitenden eine zentrale Plattform – mit allen Modellen, unter Ihrer Kontrolle. Der Quellcode ist vollständig einsehbar, es gibt keine versteckten Backdoors oder intransparenten Datenflüsse.

Wie funktioniert die Abrechnung nach Nutzung?

Die Plattform-Pauschale deckt Hosting, Wartung und Support ab. Die KI-Nutzung (API-Calls an GPT, Claude etc.) wird nach Token-Verbrauch abgerechnet. So zahlen Wenig-Nutzer wenig, Power-User fair. Bei lokalem Betrieb mit Ollama entfallen die API-Kosten komplett. In der Praxis ist das oft 50–80 % günstiger als pro-Kopf-Abos.

Können wir auch komplett lokal arbeiten – ohne Cloud?

Ja. Open WebUI unterstützt lokale Modelle über Ollama und vLLM. Für maximale Datensicherheit sind Air-Gapped-Deployments möglich – komplett isoliert vom Internet. Die Architektur ist für SOC 2, HIPAA, DSGVO, FedRAMP und ISO 27001 Compliance ausgelegt. Wir beraten Sie zur passenden Infrastruktur.

Was ist RAG und brauche ich das?

RAG (Retrieval-Augmented Generation) ist das stärkste Produktivitäts-Argument: Die KI antwortet nicht nur aus ihrem Training, sondern auf Basis Ihrer eigenen Dokumente. PDFs, Word-Dateien, Webseiten oder Markdown werden in einer Knowledge Base indiziert. Open WebUI unterstützt mehrere Vektordatenbanken (ChromaDB, Qdrant, Milvus), hybride Suche und Re-Ranking-Modelle. Wichtig: RAG ist nur so gut wie die verfügbaren Daten – wir beraten Sie auch beim Wissensmanagement.

Was sind Custom Agents und Pipelines?

Im Model Builder erstellen Sie maßgeschneiderte KI-Assistenten: System-Prompt, Wissensbasis und Verhalten werden in einem Profil gebündelt. So entsteht ein HR-Bot, Support-Bot oder Fach-Bot – ohne separate Infrastruktur. Pipelines sind modulare Workflows: eigene Geschäftsregeln, Filter, CRM/ERP-Integration oder Logging lassen sich als Pipeline implementieren. Über MCP (Model Context Protocol) binden Sie zusätzlich externe Tools und APIs an.

Wie sicher sind unsere Daten?

Die Plattform wird auf deutschen Servern gehostet (z.B. Hetzner) oder On-Premise bei Ihnen. Sie entscheiden, welche Modelle genutzt werden – und ob Daten an Cloud-APIs gesendet werden oder alles lokal bleibt. RBAC, SSO/LDAP, SCIM 2.0 und Audit-Logs sind integriert. Air-Gapped-Betrieb ist möglich.

Was unterscheidet euer Angebot von einer Eigeninstallation?

Open WebUI ist Open Source – ja, Sie könnten es selbst installieren. Aber: Updates, Sicherheitspatches, Modell-Konfiguration, RAG-Optimierung, Pipeline-Entwicklung und Support kosten intern erheblich Zeit und DevOps-Know-how. Wir übernehmen alles als Managed Service. Plus: Wir beraten strategisch, welche Modelle und Workflows für Ihre Organisation am sinnvollsten sind – inklusive Wissensmanagement-Beratung für optimale RAG-Qualität.

Gibt es Einschränkungen beim Branding?

White-Label-Deployments (eigenes Logo, kein „Open WebUI“-Branding) sind bei mehr als 50 Benutzern an eine Enterprise-Lizenz gebunden. Für kleinere Installationen ist ein eigenes Branding in der Community Edition möglich. Wir klären das frühzeitig im Beratungsgespräch mit Ihnen.

Wie schnell sind wir live?

In der Regel innerhalb von 1–2 Wochen. Die Grundinstallation ist in wenigen Stunden erledigt. Die meiste Zeit investieren wir in die Konfiguration Ihrer Modelle, das Einrichten der Wissensbasis, die Erstellung von Custom Agents und das Onboarding Ihrer Teams.

Bereit für Ihr KI-Fundament?

Beratungsgespräch vereinbaren

Ihr strategischer Partner für die digitale Transformation

© 2025 giftGRÜN GmbH