Acerca de AnythingLLM
Convierte cualquier documento, recurso o contenido en contexto que cualquier LLM puede usar como referencia durante el chat.
Descripción del Producto
AnythingLLM es una aplicación full-stack donde puedes usar LLMs comerciales o LLMs populares de código abierto y soluciones vectorDB para construir un ChatGPT privado sin compromisos que puedes ejecutar localmente y también alojar remotamente y poder chatear de manera inteligente con cualquier documento que le proporciones.
AnythingLLM divide tus documentos en objetos llamados workspaces
. Un Workspace funciona muy similar a un hilo, pero con la adición de containerización de tus documentos. Los Workspaces pueden compartir documentos, pero no se comunican entre sí para mantener el contexto de cada workspace limpio.
Características interesantes de AnythingLLM
- 🆕 Agentes AI Personalizados
- 🖼️ Soporte multimodal (¡tanto LLMs cerrados como de código abierto!)
- 👤 Soporte para múltiples usuarios y permisos Solo versión Docker
- 🦾 Agentes dentro de tu workspace (navega por la web, ejecuta código, etc)
- 💬 Widget de Chat personalizable e integrable para tu sitio web
- 📖 Soporte para múltiples tipos de documentos (PDF, TXT, DOCX, etc)
- Interfaz de chat simple con funcionalidad de arrastrar y soltar y citaciones claras.
- 100% Listo para despliegue en la nube.
- Funciona con todos los proveedores de LLM cerrados y de código abierto populares.
- Medidas incorporadas de ahorro de costos y tiempo para gestionar documentos muy grandes en comparación con cualquier otra interfaz de chat.
- ¡API completa para desarrolladores para integraciones personalizadas!
- Mucho más... ¡instala y descúbrelo!
Variables de entorno
Ver variables de entorno
- PROJECT
- anythingllm
- DOMAIN
- stack.localhost
- JWT_SECRET
- "make this a large list of random numbers and letters 20+"
- LLM_PROVIDER
- ollama
- OLLAMA_BASE_PATH
- http://host.docker.internal:11434
- OLLAMA_MODEL_PREF
- llama3.2
- OLLAMA_MODEL_TOKEN_LIMIT
- 4096
- EMBEDDING_ENGINE
- ollama
- EMBEDDING_BASE_PATH
- http://host.docker.internal:11434
- EMBEDDING_MODEL_PREF
- nomic-embed-text:latest
- EMBEDDING_MODEL_MAX_CHUNK_LENGTH
- 8192