OpenWebUI

Open-Source Web-Interface für lokale LLMs (Ollama, LM Studio) mit RAG-Support und Multi-Modell-Chat.


Schritt-für-Schritt Installation
Um OpenWebUI zu nutzen, sind drei Komponenten erforderlich:
  • Docker: Die Laufzeitumgebung für den Container.
  • Ollama: Der Host für die lokalen Sprachmodelle.
  • OpenWebUI: Das Web-Interface.
Die Installation erfolgt nach dem Start von Docker und Ollama über das Terminal:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main
Nach dem Start ist das System unter localhost:3000 erreichbar.
RAG: Chat mit Dokumenten
OpenWebUI ermöglicht Retrieval Augmented Generation (RAG):
  • Schnell-Upload: Über das "+" Icon im Chat Dateien hochladen.
  • Arbeitsbereiche: Unter "Wissen" können ganze Sammlungen (Handbücher, Richtlinien) angelegt werden.
  • Referenzierung: Mit dem Hash-Symbol # können Dokumente gezielt im Prompt aufgerufen werden.
Die KI nutzt diese als exklusive Datenquelle und gibt Zitate/Seiten an.
Erweiterungen & n8n Integration
Über das Menü Functions kann OpenWebUI mit n8n verbunden werden. Dies erlaubt:
  • Anbindung von KI-Agenten an Outlook, E-Mails und Datenbanken.
  • Nutzung von multimodalen Agenten (Bildverarbeitung).
  • Einbindung externer APIs (OpenAI, Azure) für hybride Setups.

Tastenkombinationen

Kategorie / Kombination Beschreibung / Funktion
Dokument referenzieren
Chat-Commands
#
Modell wechseln
Chat-Commands
/
Dokumente referenzieren
Shortcut
#
Modelle/Befehle aufrufen
Shortcut
/

Terminalbefehle / Optionen

Kategorie / Kombination Beschreibung / Funktion
Hardware (Small Models)
Anforderung
5-8 Mrd. Parameter (ca. 5GB VRAM)
Update Command
Docker
docker stop open-webui && docker rm open-webui && docker pull ghcr.io/open-webui/open-webui:main
Docker Run (Standard)
Terminal
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main