Acerca de Open WebUI
Una WebUI autoalojada extensible, rica en funciones y fácil de usar, diseñada para funcionar completamente sin conexión. Admite varios ejecutores de LLM, incluidos Ollama y APIs compatibles con OpenAI.
Características
- 🚀 Configuración sin esfuerzo: Instalación perfecta usando Docker o Kubernetes (kubectl, kustomize o helm) para una experiencia sin complicaciones con soporte para imágenes etiquetadas
:ollama
y:cuda
. - 🤝 Integración con API de Ollama/OpenAI: Integra sin esfuerzo APIs compatibles con OpenAI para conversaciones versátiles junto con modelos de Ollama. Personaliza la URL de la API de OpenAI para conectar con LMStudio, GroqCloud, Mistral, OpenRouter y más.
- 🛡️ Permisos granulares y grupos de usuarios: Al permitir que los administradores creen roles y permisos de usuario detallados, aseguramos un entorno de usuario seguro. Esta granularidad no solo mejora la seguridad sino que también permite experiencias de usuario personalizadas, fomentando un sentido de propiedad y responsabilidad entre los usuarios.
- 📱 Diseño responsivo: Disfruta de una experiencia perfecta en PC de escritorio, portátil y dispositivos móviles.
- 📱 Aplicación web progresiva (PWA) para móviles: Disfruta de una experiencia similar a una aplicación nativa en tu dispositivo móvil con nuestra PWA, proporcionando acceso sin conexión en localhost y una interfaz de usuario fluida.
- ✒️🔢 Soporte completo de Markdown y LaTeX: Eleva tu experiencia LLM con capacidades completas de Markdown y LaTeX para una interacción enriquecida.
- 🎤📹 Llamadas de voz/video manos libres: Experimenta una comunicación fluida con funciones integradas de llamadas de voz y video manos libres, permitiendo un entorno de chat más dinámico e interactivo.
- 🛠️ Constructor de modelos: Crea fácilmente modelos de Ollama a través de la interfaz web. Crea y añade personajes/agentes personalizados, personaliza elementos del chat e importa modelos sin esfuerzo a través de la integración con Open WebUI Community.
- 🐍 Herramienta nativa de llamada a funciones Python: Mejora tus LLMs con soporte de editor de código integrado en el espacio de trabajo de herramientas. Trae tus propias funciones (BYOF) simplemente añadiendo tus funciones Python puras, permitiendo una integración perfecta con LLMs.
- 📚 Integración RAG local: Sumérgete en el futuro de las interacciones de chat con el revolucionario soporte de Generación Aumentada por Recuperación (RAG). Esta función integra perfectamente las interacciones con documentos en tu experiencia de chat. Puedes cargar documentos directamente en el chat o añadir archivos a tu biblioteca de documentos, accediendo a ellos sin esfuerzo usando el comando
#
antes de una consulta. - 🔍 Búsqueda web para RAG: Realiza búsquedas web usando proveedores como
SearXNG
,Google PSE
,Brave Search
,serpstack
,serper
,Serply
,DuckDuckGo
,TavilySearch
,SearchApi
yBing
e inyecta los resultados directamente en tu experiencia de chat. - 🌐 Capacidad de navegación web: Integra perfectamente sitios web en tu experiencia de chat usando el comando
#
seguido de una URL. Esta función te permite
Variables de entorno
Ver variables de entorno
- PROJECT
- openwebui
- DOMAIN
- stack.localhost
- SEARXNG_SECRET_KEY
- a8f5f167f44f4964e6c998dee827110c8a1f8f9d4e3b4c8d9a7e6f5b4c3d2a1b
- OLLAMA_BASE_URL
- http://host.docker.internal:11434
- SCARF_NO_ANALYTICS
- true
- DO_NOT_TRACK
- true
- ANONYMIZED_TELEMETRY
- false
- WEBUI_AUTH
- false
- ENABLE_SIGNUP
- false
- DEFAULT_MODELS
- llama3.2
- RAG_EMBEDDING_ENGINE
- openai
- ENABLE_RAG_WEB_SEARCH
- true
- RAG_WEB_SEARCH_ENGINE
- searxng
- SEARXNG_QUERY_URL
- "http://searxng:8080/search?q
- AUDIO_STT_ENGINE
- openai