О AnythingLLM
Превратите любой документ, ресурс или контент в контекст, который любая LLM может использовать в качестве справочного материала во время общения.
Обзор продукта
AnythingLLM - это полноценное приложение, где вы можете использовать коммерческие готовые LLM или популярные модели с открытым исходным кодом и решения vectorDB для создания частного ChatGPT без компромиссов, который можно запускать локально, а также размещать удаленно и иметь возможность интеллектуально общаться с любыми предоставленными документами.
AnythingLLM разделяет ваши документы на объекты, называемые рабочими пространствами
. Рабочее пространство функционирует во многом как поток, но с добавлением контейнеризации ваших документов. Рабочие пространства могут совместно использовать документы, но они не взаимодействуют друг с другом, поэтому вы можете сохранять контекст для каждого рабочего пространства чистым.
Крутые функции AnythingLLM
- 🆕 Пользовательские ИИ-агенты
- 🖼️ Мультимодальная поддержка (как закрытых, так и открытых LLM!)
- 👤 Поддержка нескольких пользователей и разрешений только для Docker версии
- 🦾 Агенты внутри рабочего пространства (просмотр веб-страниц, запуск кода и т.д.)
- 💬 Настраиваемый встраиваемый виджет чата для вашего сайта
- 📖 Поддержка множества типов документов (PDF, TXT, DOCX и т.д.)
- Простой интерфейс чата с функцией drag-n-drop и четкими цитатами
- 100% готовность к облачному развертыванию
- Работает со всеми популярными [закрытыми и открытыми LLM-провайдерами, моделями встраивания, речевыми моделями и векторными базами данных]
- Встроенные меры экономии затрат и времени для управления очень большими документами по сравнению с любым другим интерфейсом чата
- Полный API для разработчиков для пользовательских интеграций!
- И многое другое... установите и узнайте!
Environment variables
View environment variables
- PROJECT
- anythingllm
- DOMAIN
- stack.localhost
- JWT_SECRET
- "make this a large list of random numbers and letters 20+"
- LLM_PROVIDER
- ollama
- OLLAMA_BASE_PATH
- http://host.docker.internal:11434
- OLLAMA_MODEL_PREF
- llama3.2
- OLLAMA_MODEL_TOKEN_LIMIT
- 4096
- EMBEDDING_ENGINE
- ollama
- EMBEDDING_BASE_PATH
- http://host.docker.internal:11434
- EMBEDDING_MODEL_PREF
- nomic-embed-text:latest
- EMBEDDING_MODEL_MAX_CHUNK_LENGTH
- 8192