Open-Source Web-Interface für lokale LLMs (Ollama, LM Studio) mit RAG-Support und Multi-Modell-Chat.
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main
Nach dem Start ist das System unter localhost:3000 erreichbar.# können Dokumente gezielt im Prompt aufgerufen werden.| Kategorie / Kombination | Beschreibung / Funktion |
|---|---|
|
Dokument referenzieren Chat-Commands |
# |
|
Modell wechseln Chat-Commands |
/ |
|
Dokumente referenzieren Shortcut |
# |
|
Modelle/Befehle aufrufen Shortcut |
/ |
| Kategorie / Kombination | Beschreibung / Funktion |
|---|---|
|
Hardware (Small Models) Anforderung |
5-8 Mrd. Parameter (ca. 5GB VRAM) |
|
Update Command Docker |
docker stop open-webui && docker rm open-webui && docker pull ghcr.io/open-webui/open-webui:main |
|
Docker Run (Standard) Terminal |
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main |