Informazioni su Open WebUI
Una WebUI self-hosted estensibile, ricca di funzionalità e facile da usare, progettata per funzionare completamente offline. Supporta vari runner LLM, inclusi Ollama e API compatibili con OpenAI.
Funzionalità
- 🚀 Configurazione Semplice: Installazione fluida utilizzando Docker o Kubernetes (kubectl, kustomize o helm) per un'esperienza senza problemi con supporto per immagini taggate sia
:ollama
che:cuda
. - 🤝 Integrazione API Ollama/OpenAI: Integra facilmente API compatibili con OpenAI per conversazioni versatili insieme ai modelli Ollama. Personalizza l'URL dell'API OpenAI per collegarti con LMStudio, GroqCloud, Mistral, OpenRouter e altri.
- 🛡️ Permessi Granulari e Gruppi Utenti: Permettendo agli amministratori di creare ruoli utente e permessi dettagliati, assicuriamo un ambiente utente sicuro. Questa granularità non solo migliora la sicurezza ma permette anche esperienze utente personalizzate, promuovendo un senso di proprietà e responsabilità tra gli utenti.
- 📱 Design Responsivo: Goditi un'esperienza fluida su PC Desktop, Laptop e dispositivi mobili.
- 📱 App Web Progressiva (PWA) per Mobile: Goditi un'esperienza simile a un'app nativa sul tuo dispositivo mobile con la nostra PWA, fornendo accesso offline su localhost e un'interfaccia utente fluida.
- ✒️🔢 Supporto Completo per Markdown e LaTeX: Eleva la tua esperienza LLM con capacità complete di Markdown e LaTeX per un'interazione arricchita.
- 🎤📹 Chiamate Vocali/Video Hands-Free: Sperimenta una comunicazione fluida con funzionalità integrate di chiamate vocali e video hands-free, permettendo un ambiente di chat più dinamico e interattivo.
- 🛠️ Costruttore di Modelli: Crea facilmente modelli Ollama tramite la Web UI. Crea e aggiungi personaggi/agenti personalizzati, personalizza elementi della chat e importa modelli senza sforzo attraverso l'integrazione con Open WebUI Community.
- 🐍 Strumento di Chiamata Funzioni Python Nativo: Migliora i tuoi LLM con il supporto integrato dell'editor di codice nell'area di lavoro degli strumenti. Porta le Tue Funzioni (BYOF) semplicemente aggiungendo le tue funzioni Python pure, permettendo un'integrazione fluida con gli LLM.
- 📚 Integrazione RAG Locale: Immergiti nel futuro delle interazioni chat con il rivoluzionario supporto per il Retrieval Augmented Generation (RAG). Questa funzionalità integra perfettamente le interazioni con i documenti nella tua esperienza di chat. Puoi caricare documenti direttamente nella chat o aggiungere file alla tua libreria documenti, accedendovi facilmente usando il comando
#
prima di una query. - 🔍 Ricerca Web per RAG: Esegui ricerche web usando provider come
SearXNG
,Google PSE
,Brave Search
,serpstack
,serper
,Serply
,DuckDuckGo
,TavilySearch
,SearchApi
eBing
e inserisci i risultati direttamente nella tua esperienza di chat. - 🌐 Capacità di Navigazione Web: Integra perfettamente siti web nella tua esperienza di chat usando il comando
#
seguito da un URL. Questa funzionalità
Environment variables
View environment variables
- PROJECT
- openwebui
- DOMAIN
- stack.localhost
- SEARXNG_SECRET_KEY
- a8f5f167f44f4964e6c998dee827110c8a1f8f9d4e3b4c8d9a7e6f5b4c3d2a1b
- OLLAMA_BASE_URL
- http://host.docker.internal:11434
- SCARF_NO_ANALYTICS
- true
- DO_NOT_TRACK
- true
- ANONYMIZED_TELEMETRY
- false
- WEBUI_AUTH
- false
- ENABLE_SIGNUP
- false
- DEFAULT_MODELS
- llama3.2
- RAG_EMBEDDING_ENGINE
- openai
- ENABLE_RAG_WEB_SEARCH
- true
- RAG_WEB_SEARCH_ENGINE
- searxng
- SEARXNG_QUERY_URL
- "http://searxng:8080/search?q
- AUDIO_STT_ENGINE
- openai