Informazioni su AnythingLLM
Trasforma qualsiasi documento, risorsa o contenuto in un contesto che qualsiasi LLM può utilizzare come riferimento durante la chat.
Panoramica del Prodotto
AnythingLLM è un'applicazione full-stack dove puoi utilizzare LLM commerciali o popolari LLM open source e soluzioni vectorDB per costruire un ChatGPT privato senza compromessi che puoi eseguire localmente e ospitare in remoto, potendo chattare in modo intelligente con qualsiasi documento tu gli fornisca.
AnythingLLM divide i tuoi documenti in oggetti chiamati workspace
. Un Workspace funziona molto come un thread, ma con l'aggiunta della containerizzazione dei tuoi documenti. I workspace possono condividere documenti, ma non comunicano tra loro così puoi mantenere pulito il contesto per ogni workspace.
Caratteristiche interessanti di AnythingLLM
- 🆕 Agenti AI Personalizzati
- 🖼️ Supporto multi-modale (sia LLM chiusi che open-source!)
- 👤 Supporto multi-utente e gestione permessi solo versione Docker
- 🦾 Agenti all'interno del tuo workspace (naviga sul web, esegui codice, ecc)
- 💬 Widget di Chat personalizzabile e incorporabile nel tuo sito web
- 📖 Supporto per diversi tipi di documenti (PDF, TXT, DOCX, ecc)
- Semplice interfaccia chat con funzionalità Drag-n-Drop e citazioni chiare
- 100% pronto per il deployment su Cloud
- Funziona con tutti i popolari fornitori LLM chiusi e open-source
- Misure integrate di risparmio costi e tempo per gestire documenti molto grandi rispetto a qualsiasi altra interfaccia chat
- API completa per sviluppatori per integrazioni personalizzate!
- Molto altro... installa e scopri!
Environment variables
View environment variables
- PROJECT
- anythingllm
- DOMAIN
- stack.localhost
- JWT_SECRET
- "make this a large list of random numbers and letters 20+"
- LLM_PROVIDER
- ollama
- OLLAMA_BASE_PATH
- http://host.docker.internal:11434
- OLLAMA_MODEL_PREF
- llama3.2
- OLLAMA_MODEL_TOKEN_LIMIT
- 4096
- EMBEDDING_ENGINE
- ollama
- EMBEDDING_BASE_PATH
- http://host.docker.internal:11434
- EMBEDDING_MODEL_PREF
- nomic-embed-text:latest
- EMBEDDING_MODEL_MAX_CHUNK_LENGTH
- 8192