Über AnythingLLM
Verwandeln Sie jedes Dokument, jede Ressource oder jeden Inhalt in Kontext, den jedes LLM als Referenz während des Chattens nutzen kann.
Produktübersicht
AnythingLLM ist eine Full-Stack-Anwendung, mit der Sie handelsübliche LLMs oder beliebte Open-Source-LLMs und VektorDB-Lösungen nutzen können, um einen privaten ChatGPT ohne Kompromisse zu erstellen, den Sie lokal ausführen und remote hosten können und mit dem Sie intelligent mit allen von Ihnen bereitgestellten Dokumenten chatten können.
AnythingLLM teilt Ihre Dokumente in Objekte namens Workspaces
ein. Ein Workspace funktioniert ähnlich wie ein Thread, aber mit der zusätzlichen Containerisierung Ihrer Dokumente. Workspaces können Dokumente gemeinsam nutzen, kommunizieren aber nicht miteinander, sodass der Kontext für jeden Workspace sauber bleibt.
Coole Funktionen von AnythingLLM
- 🆕 Benutzerdefinierte KI-Agenten
- 🖼️ Multi-modale Unterstützung (sowohl geschlossene als auch Open-Source-LLMs!)
- 👤 Multi-User-Instanz-Unterstützung und Berechtigungen nur Docker-Version
- 🦾 Agenten in Ihrem Workspace (im Web surfen, Code ausführen, etc)
- 💬 Anpassbares einbettbares Chat-Widget für Ihre Website
- 📖 Unterstützung mehrerer Dokumenttypen (PDF, TXT, DOCX, etc)
- Einfache Chat-Benutzeroberfläche mit Drag-n-Drop-Funktionalität und klaren Zitaten
- 100% Cloud-Deployment-bereit
- Funktioniert mit allen beliebten geschlossenen und Open-Source-LLM-Anbietern
- Eingebaute kosten- und zeitsparende Maßnahmen für die Verwaltung sehr großer Dokumente im Vergleich zu anderen Chat-Benutzeroberflächen
- Vollständige Entwickler-API für benutzerdefinierte Integrationen!
- Viel mehr... installieren Sie es und finden Sie es heraus!
Umgebungsvariablen
Umgebungsvariablen anzeigen
- PROJECT
- anythingllm
- DOMAIN
- stack.localhost
- JWT_SECRET
- "make this a large list of random numbers and letters 20+"
- LLM_PROVIDER
- ollama
- OLLAMA_BASE_PATH
- http://host.docker.internal:11434
- OLLAMA_MODEL_PREF
- llama3.2
- OLLAMA_MODEL_TOKEN_LIMIT
- 4096
- EMBEDDING_ENGINE
- ollama
- EMBEDDING_BASE_PATH
- http://host.docker.internal:11434
- EMBEDDING_MODEL_PREF
- nomic-embed-text:latest
- EMBEDDING_MODEL_MAX_CHUNK_LENGTH
- 8192