Open WebUI के बारे में
एक विस्तार योग्य, सुविधा-समृद्ध, और उपयोगकर्ता-अनुकूल स्व-होस्टेड वेबयूआई जो पूरी तरह से ऑफलाइन काम करने के लिए डिज़ाइन किया गया है। यह Ollama और OpenAI-संगत APIs सहित विभिन्न LLM रनर्स का समर्थन करता है।
विशेषताएं
- 🚀 सरल सेटअप:
:ollama
और:cuda
टैग की गई छवियों के समर्थन के साथ परेशानी मुक्त अनुभव के लिए Docker या Kubernetes (kubectl, kustomize या helm) का उपयोग करके आसानी से स्थापित करें। - 🤝 Ollama/OpenAI API एकीकरण: Ollama मॉडल के साथ बहुमुखी वार्तालाप के लिए OpenAI-संगत APIs को आसानी से एकीकृत करें। LMStudio, GroqCloud, Mistral, OpenRouter, और अधिक से जुड़ने के लिए OpenAI API URL को कस्टमाइज़ करें।
- 🛡️ विस्तृत अनुमतियां और उपयोगकर्ता समूह: प्रशासकों को विस्तृत उपयोगकर्ता भूमिकाएं और अनुमतियां बनाने की अनुमति देकर, हम एक सुरक्षित उपयोगकर्ता वातावरण सुनिश्चित करते हैं। यह विस्तृतता न केवल सुरक्षा को बढ़ाती है बल्कि अनुकूलित उपयोगकर्ता अनुभवों की भी अनुमति देती है।
- 📱 प्रतिक्रियाशील डिजाइन: डेस्कटॉप पीसी, लैपटॉप और मोबाइल उपकरणों पर निर्बाध अनुभव का आनंद लें।
- 📱 प्रोग्रेसिव वेब ऐप (PWA) मोबाइल के लिए: हमारे PWA के साथ अपने मोबाइल डिवाइस पर नेटिव ऐप जैसा अनुभव प्राप्त करें।
- ✒️🔢 पूर्ण मार्कडाउन और LaTeX समर्थन: समृद्ध इंटरैक्शन के लिए व्यापक मार्कडाउन और LaTeX क्षमताओं के साथ अपने LLM अनुभव को बढ़ाएं।
- 🎤📹 हैंड्स-फ्री वॉइस/वीडियो कॉल: एकीकृत हैंड्स-फ्री वॉइस और वीडियो कॉल सुविधाओं के साथ निर्बाध संचार का अनुभव करें।
- 🛠️ मॉडल बिल्डर: वेब UI के माध
Environment variables
View environment variables
- PROJECT
- openwebui
- DOMAIN
- stack.localhost
- SEARXNG_SECRET_KEY
- a8f5f167f44f4964e6c998dee827110c8a1f8f9d4e3b4c8d9a7e6f5b4c3d2a1b
- OLLAMA_BASE_URL
- http://host.docker.internal:11434
- SCARF_NO_ANALYTICS
- true
- DO_NOT_TRACK
- true
- ANONYMIZED_TELEMETRY
- false
- WEBUI_AUTH
- false
- ENABLE_SIGNUP
- false
- DEFAULT_MODELS
- llama3.2
- RAG_EMBEDDING_ENGINE
- openai
- ENABLE_RAG_WEB_SEARCH
- true
- RAG_WEB_SEARCH_ENGINE
- searxng
- SEARXNG_QUERY_URL
- "http://searxng:8080/search?q
- AUDIO_STT_ENGINE
- openai