À propos de Open WebUI
Une interface web auto-hébergée, extensible, riche en fonctionnalités et conviviale, conçue pour fonctionner entièrement hors ligne. Elle prend en charge divers exécuteurs de LLM, y compris Ollama et les API compatibles OpenAI.
Fonctionnalités
- 🚀 Installation Facile: Installation simplifiée via Docker ou Kubernetes (kubectl, kustomize ou helm) pour une expérience sans tracas avec prise en charge des images tagguées
:ollama
et:cuda
. - 🤝 Intégration Ollama/OpenAI API: Intégrez facilement les API compatibles OpenAI pour des conversations polyvalentes aux côtés des modèles Ollama. Personnalisez l'URL de l'API OpenAI pour vous connecter à LMStudio, GroqCloud, Mistral, OpenRouter, et plus encore.
- 🛡️ Permissions Granulaires et Groupes d'Utilisateurs: En permettant aux administrateurs de créer des rôles et des permissions détaillés, nous assurons un environnement utilisateur sécurisé. Cette granularité améliore la sécurité et permet des expériences utilisateur personnalisées.
- 📱 Design Responsive: Profitez d'une expérience fluide sur PC de bureau, ordinateur portable et appareils mobiles.
- 📱 Application Web Progressive (PWA) pour Mobile: Profitez d'une expérience similaire à une application native sur votre appareil mobile avec notre PWA, offrant un accès hors ligne en localhost et une interface utilisateur fluide.
- ✒️🔢 Support Complet Markdown et LaTeX: Améliorez votre expérience LLM avec des capacités complètes en Markdown et LaTeX pour une interaction enrichie.
- 🎤📹 Appel Vocal/Vidéo Mains Libres: Expérimentez une communication fluide avec des fonctionnalités d'appel vocal et vidéo mains libres intégrées.
- 🛠️ Constructeur de Modèles: Créez facilement des modèles Ollama via l'interface web. Créez et ajoutez des personnages/agents personnalisés, personnalisez les éléments de chat et importez des modèles via l'intégration Open WebUI Community.
- 🐍 Outil d'Appel de Fonctions Python Natif: Améliorez vos LLMs avec le support d'éditeur de code intégré. Apportez vos propres fonctions (BYOF) en ajoutant simplement vos fonctions Python pures.
- 📚 Intégration RAG Locale: Plongez dans le futur des interactions de chat avec le support RAG (Retrieval Augmented Generation). Chargez des documents directement dans le chat ou ajoutez des fichiers à votre bibliothèque.
- 🔍 Recherche Web pour RAG: Effectuez des recherches web avec des fournisseurs comme
SearXNG
,Google PSE
,Brave Search
,serpstack
, et autres. - 🌐 Capacité de Navigation Web: Intégrez des sites web dans vos conversations en utilisant la commande
#
suivie d'une URL. - 🎨 Intégration de Génération d'Images: Incorporez des capacités de génération d'images en utilisant AUTOMATIC1111 API, ComfyUI (local), ou DALL-E d'OpenAI (externe).
- ⚙️ Conversations Multi-Modèles: Interagissez facilement avec plusieurs modèles simultanément.
- 🔐 Contrôle d'Accès Basé sur les Rôles (RBAC): Assurez un accès sécurisé avec des permissions restreintes.
- 🌐🌍 Support Multilingue: Utilisez Open WebUI dans votre langue préférée grâce au support i18n.
- 🧩 Support des Pipelines et Plugins Open WebUI: Intégrez facilement des logiques personnalisées et des bibliothèques Python.
- 🌟 Mises à Jour Continues: Nous nous engageons à améliorer Open WebUI avec des mises à jour régulières.
Pour plus d'informations, consultez notre Documentation Open WebUI.
Variables d'environnement
Voir les variables d'environnement
- PROJECT
- openwebui
- DOMAIN
- stack.localhost
- SEARXNG_SECRET_KEY
- a8f5f167f44f4964e6c998dee827110c8a1f8f9d4e3b4c8d9a7e6f5b4c3d2a1b
- OLLAMA_BASE_URL
- http://host.docker.internal:11434
- SCARF_NO_ANALYTICS
- true
- DO_NOT_TRACK
- true
- ANONYMIZED_TELEMETRY
- false
- WEBUI_AUTH
- false
- ENABLE_SIGNUP
- false
- DEFAULT_MODELS
- llama3.2
- RAG_EMBEDDING_ENGINE
- openai
- ENABLE_RAG_WEB_SEARCH
- true
- RAG_WEB_SEARCH_ENGINE
- searxng
- SEARXNG_QUERY_URL
- "http://searxng:8080/search?q
- AUDIO_STT_ENGINE
- openai