À propos de AnythingLLM
Transformez n'importe quel document, ressource ou contenu en contexte qu'un LLM peut utiliser comme référence pendant une conversation.
Présentation du produit
AnythingLLM est une application complète où vous pouvez utiliser des LLM commerciaux ou des LLM open source populaires et des solutions vectorDB pour créer un ChatGPT privé sans compromis, que vous pouvez exécuter localement et héberger à distance pour discuter intelligemment avec tous les documents que vous lui fournissez.
AnythingLLM divise vos documents en objets appelés workspaces
. Un Workspace fonctionne comme un fil de discussion, mais avec l'ajout de la conteneurisation de vos documents. Les workspaces peuvent partager des documents, mais ils ne communiquent pas entre eux afin de garder le contexte de chaque workspace distinct.
Fonctionnalités intéressantes d'AnythingLLM
- 🆕 Agents IA personnalisés
- 🖼️ Support multimodal (LLM propriétaires et open source !)
- 👤 Support multi-utilisateurs et gestion des permissions Version Docker uniquement
- 🦾 Agents dans votre workspace (navigation web, exécution de code, etc)
- 💬 Widget de chat intégrable personnalisé pour votre site web
- 📖 Support de multiples types de documents (PDF, TXT, DOCX, etc)
- Interface de chat simple avec fonctionnalité glisser-déposer et citations claires
- 100% prêt pour le déploiement dans le cloud
- Fonctionne avec tous les fournisseurs de LLM populaires propriétaires et open source
- Mesures intégrées d'économie de coûts et de temps pour la gestion de très grands documents par rapport aux autres interfaces de chat
- API complète pour les développeurs permettant des intégrations personnalisées !
- Et bien plus encore... installez et découvrez !
Variables d'environnement
Voir les variables d'environnement
- PROJECT
- anythingllm
- DOMAIN
- stack.localhost
- JWT_SECRET
- "make this a large list of random numbers and letters 20+"
- LLM_PROVIDER
- ollama
- OLLAMA_BASE_PATH
- http://host.docker.internal:11434
- OLLAMA_MODEL_PREF
- llama3.2
- OLLAMA_MODEL_TOKEN_LIMIT
- 4096
- EMBEDDING_ENGINE
- ollama
- EMBEDDING_BASE_PATH
- http://host.docker.internal:11434
- EMBEDDING_MODEL_PREF
- nomic-embed-text:latest
- EMBEDDING_MODEL_MAX_CHUNK_LENGTH
- 8192