Sobre AnythingLLM
Transforme qualquer documento, recurso ou conteúdo em contexto que qualquer LLM possa usar como referência durante conversas.
Visão Geral do Produto
AnythingLLM é uma aplicação full-stack onde você pode usar LLMs comerciais prontos para uso ou LLMs populares de código aberto e soluções vectorDB para construir um ChatGPT privado sem compromissos que você pode executar localmente e hospedar remotamente, sendo capaz de conversar inteligentemente com quaisquer documentos que você fornecer.
AnythingLLM divide seus documentos em objetos chamados workspaces
. Um Workspace funciona muito como uma thread, mas com o adicional de containerização dos seus documentos. Workspaces podem compartilhar documentos, mas não se comunicam entre si para que você possa manter o contexto de cada workspace limpo.
Recursos interessantes do AnythingLLM
- 🆕 Agentes de IA Personalizados
- 🖼️ Suporte multimodal (tanto LLMs fechados quanto de código aberto!)
- 👤 Suporte a múltiplos usuários e permissionamento Apenas versão Docker
- 🦾 Agentes dentro do seu workspace (navegue na web, execute código, etc)
- 💬 Widget de Chat Personalizável e Incorporável para seu website
- 📖 Suporte a múltiplos tipos de documentos (PDF, TXT, DOCX, etc)
- Interface de chat simples com funcionalidade de arrastar e soltar e citações claras.
- 100% pronto para implantação na nuvem.
- Funciona com todos os provedores LLM fechados e de código aberto populares.
- Medidas integradas de economia de custos e tempo para gerenciar documentos muito grandes em comparação com qualquer outra interface de chat.
- API completa para desenvolvedores para integrações personalizadas!
- Muito mais... instale e descubra!
Environment variables
View environment variables
- PROJECT
- anythingllm
- DOMAIN
- stack.localhost
- JWT_SECRET
- "make this a large list of random numbers and letters 20+"
- LLM_PROVIDER
- ollama
- OLLAMA_BASE_PATH
- http://host.docker.internal:11434
- OLLAMA_MODEL_PREF
- llama3.2
- OLLAMA_MODEL_TOKEN_LIMIT
- 4096
- EMBEDDING_ENGINE
- ollama
- EMBEDDING_BASE_PATH
- http://host.docker.internal:11434
- EMBEDDING_MODEL_PREF
- nomic-embed-text:latest
- EMBEDDING_MODEL_MAX_CHUNK_LENGTH
- 8192