Über Open WebUI
Eine erweiterbare, funktionsreiche und benutzerfreundliche selbst-gehostete WebUI, die vollständig offline betrieben werden kann. Sie unterstützt verschiedene LLM-Runner, einschließlich Ollama und OpenAI-kompatible APIs.
Funktionen
- 🚀 Mühelose Einrichtung: Installieren Sie nahtlos mit Docker oder Kubernetes (kubectl, kustomize oder helm) für eine problemlose Erfahrung mit Unterstützung für sowohl
:ollama
als auch:cuda
markierte Images. - 🤝 Ollama/OpenAI API Integration: Integrieren Sie mühelos OpenAI-kompatible APIs für vielseitige Konversationen neben Ollama-Modellen. Passen Sie die OpenAI API URL an, um sich mit LMStudio, GroqCloud, Mistral, OpenRouter und mehr zu verbinden.
- 🛡️ Detaillierte Berechtigungen und Benutzergruppen: Durch die Möglichkeit für Administratoren, detaillierte Benutzerrollen und Berechtigungen zu erstellen, gewährleisten wir eine sichere Benutzerumgebung. Diese Granularität verbessert nicht nur die Sicherheit, sondern ermöglicht auch personalisierte Benutzererfahrungen und fördert ein Gefühl von Eigenverantwortung unter den Benutzern.
- 📱 Responsives Design: Genießen Sie eine nahtlose Erfahrung auf Desktop-PC, Laptop und Mobilgeräten.
- 📱 Progressive Web App (PWA) für Mobile: Genießen Sie eine native App-ähnliche Erfahrung auf Ihrem Mobilgerät mit unserer PWA, die Offline-Zugriff auf localhost und eine nahtlose Benutzeroberfläche bietet.
- ✒️🔢 Vollständige Markdown und LaTeX Unterstützung: Verbessern Sie Ihre LLM-Erfahrung mit umfassenden Markdown- und LaTeX-Funktionen für eine bereicherte Interaktion.
- 🎤📹 Freihändige Sprach-/Videoanrufe: Erleben Sie nahtlose Kommunikation mit integrierten freihändigen Sprach- und Videoanruffunktionen für eine dynamischere und interaktivere Chatumgebung.
- 🛠️ Modell-Builder: Erstellen Sie einfach Ollama-Modelle über die Web-UI. Erstellen und fügen Sie benutzerdefinierte Charaktere/Agenten hinzu, passen Sie Chat-Elemente an und importieren Sie Modelle mühelos durch Open WebUI Community Integration.
- 🐍 Native Python-Funktionsaufruf-Tool: Erweitern Sie Ihre LLMs mit eingebauter Code-Editor-Unterstützung im Tools-Arbeitsbereich. Bringen Sie Ihre eigenen Funktionen (BYOF) ein, indem Sie einfach Ihre reinen Python-Funktionen hinzufügen und eine nahtlose Integration mit LLMs ermöglichen.
- 📚 Lokale RAG-Integration: Tauchen Sie ein in die Zukunft der Chat-Interaktionen mit bahnbrechender Retrieval Augmented Generation (RAG) Unterstützung. Diese Funktion integriert Dokumenteninteraktionen nahtlos in Ihre Chat-Erfahrung. Sie können Dokumente direkt in den Chat laden oder Dateien zu Ihrer Dokumentenbibliothek hinzufügen und mühelos mit dem
#
-Befehl vor einer Anfrage darauf zugreifen. - 🔍 Websuche für RAG: Führen Sie Web
Umgebungsvariablen
Umgebungsvariablen anzeigen
- PROJECT
- openwebui
- DOMAIN
- stack.localhost
- SEARXNG_SECRET_KEY
- a8f5f167f44f4964e6c998dee827110c8a1f8f9d4e3b4c8d9a7e6f5b4c3d2a1b
- OLLAMA_BASE_URL
- http://host.docker.internal:11434
- SCARF_NO_ANALYTICS
- true
- DO_NOT_TRACK
- true
- ANONYMIZED_TELEMETRY
- false
- WEBUI_AUTH
- false
- ENABLE_SIGNUP
- false
- DEFAULT_MODELS
- llama3.2
- RAG_EMBEDDING_ENGINE
- openai
- ENABLE_RAG_WEB_SEARCH
- true
- RAG_WEB_SEARCH_ENGINE
- searxng
- SEARXNG_QUERY_URL
- "http://searxng:8080/search?q
- AUDIO_STT_ENGINE
- openai