Sobre Open WebUI
Uma interface web auto-hospedada extensível, rica em recursos e amigável, projetada para operar totalmente offline. Suporta vários executores de LLM, incluindo Ollama e APIs compatíveis com OpenAI.
Recursos
- 🚀 Configuração Simples: Instale facilmente usando Docker ou Kubernetes (kubectl, kustomize ou helm) para uma experiência sem complicações com suporte para imagens marcadas com
:ollama
e:cuda
. - 🤝 Integração com API Ollama/OpenAI: Integre facilmente APIs compatíveis com OpenAI para conversas versáteis junto com modelos Ollama. Personalize a URL da API OpenAI para conectar com LMStudio, GroqCloud, Mistral, OpenRouter e outros.
- 🛡️ Permissões Granulares e Grupos de Usuários: Ao permitir que administradores criem papéis e permissões detalhadas de usuários, garantimos um ambiente de usuário seguro. Essa granularidade não apenas melhora a segurança, mas também permite experiências personalizadas, promovendo um senso de propriedade e responsabilidade entre os usuários.
- 📱 Design Responsivo: Desfrute de uma experiência perfeita em PC Desktop, Laptop e dispositivos móveis.
- 📱 Aplicativo Web Progressivo (PWA) para Mobile: Desfrute de uma experiência semelhante a um aplicativo nativo em seu dispositivo móvel com nosso PWA, fornecendo acesso offline no localhost e uma interface de usuário integrada.
- ✒️🔢 Suporte Completo a Markdown e LaTeX: Eleve sua experiência LLM com recursos abrangentes de Markdown e LaTeX para interação enriquecida.
- 🎤📹 Chamada de Voz/Vídeo Hands-Free: Experimente uma comunicação perfeita com recursos integrados de chamada de voz e vídeo hands-free, permitindo um ambiente de chat mais dinâmico e interativo.
- 🛠️ Construtor de Modelos: Crie facilmente modelos Ollama via interface web. Crie e adicione personagens/agentes personalizados, personalize elementos do chat e importe modelos facilmente através da integração com Open WebUI Community.
- 🐍 Ferramenta Nativa de Chamada de Função Python: Aprimore seus LLMs com suporte integrado ao editor de código no espaço de trabalho de ferramentas. Traga Sua Própria Função (BYOF) simplesmente adicionando suas funções Python puras, permitindo integração perfeita com LLMs.
- 📚 Integração RAG Local: Mergulhe no futuro das interações de chat com suporte revolucionário à Geração Aumentada por Recuperação (RAG). Este recurso integra perfeitamente interações com documentos em sua experiência de chat. Você pode carregar documentos diretamente no chat ou adicionar arquivos à sua biblioteca de documentos, acessando-os facilmente usando o comando
#
antes de uma consulta. - 🔍 Pesquisa Web para RAG: Realize pesquisas na web usando provedores como
SearXNG
,Google PSE
,Brave Search
,serpstack
,serper
,Serply
,DuckDuckGo
,TavilySearch
,SearchApi
eBing
e injete os resultados diretamente em sua experiência de chat. - 🌐 Capacidade de Navegação Web: Integre sites perfeitamente em sua experiência de chat usando o comando
#
seguido por uma URL. Este recurso permite incorporar conteúdo web diretamente em suas conversas, aprimorando a riqueza e profundidade de suas interações
Environment variables
View environment variables
- PROJECT
- openwebui
- DOMAIN
- stack.localhost
- SEARXNG_SECRET_KEY
- a8f5f167f44f4964e6c998dee827110c8a1f8f9d4e3b4c8d9a7e6f5b4c3d2a1b
- OLLAMA_BASE_URL
- http://host.docker.internal:11434
- SCARF_NO_ANALYTICS
- true
- DO_NOT_TRACK
- true
- ANONYMIZED_TELEMETRY
- false
- WEBUI_AUTH
- false
- ENABLE_SIGNUP
- false
- DEFAULT_MODELS
- llama3.2
- RAG_EMBEDDING_ENGINE
- openai
- ENABLE_RAG_WEB_SEARCH
- true
- RAG_WEB_SEARCH_ENGINE
- searxng
- SEARXNG_QUERY_URL
- "http://searxng:8080/search?q
- AUDIO_STT_ENGINE
- openai