Сравнение
QueryMT против альтернативных LLM-фреймворков
Не существует фреймворка, который был бы лучшим для всего. Вот как QueryMT выглядит на фоне альтернатив и когда что выбирать.
| Функция | QueryMT | LiteLLM | LangChain | CrewAI | Ollama |
| Язык | Rust | Python | Python/JS | Python | Go |
| Количество провайдеров | 17+ | 100+ | ~40 | ~10 | ~5 (локально) |
| Модель плагинов | WASM/native из OCI | Python packages | Pip packages | Pip packages | Built-in |
| Провайдеры в песочнице | | — | — | — | — |
| Агенты из конфига | | — | — | — | — |
| Мультиагентный кворум | | — | — | | — |
| Mesh-сеть | | — | — | — | — |
| Совместный доступ без учетных данных | | — | — | — | — |
| Desktop MCP (данные устройства) | | — | — | — | — |
| Агенты по расписанию | | — | — | — | — |
| Постоянные знания | | — | | | — |
| Локальный GPU inference | | | — | — | ✓ |
| Параллельная оценка | ✓ | ✓ | — | — | — |
| Поддержка MCP | ✓ | — | ✓ | — | — |
| Структурированный вывод | ✓ | ✓ | ✓ | — | — |
| Расширение VS Code | ✓ | — | — | — | — |
Когда использовать QueryMT
- Вам нужны агенты из конфигов, а не код
- Вам нужна mesh-сеть или шеринг провайдеров без передачи учетных данных
- Вам нужен доступ к данным на устройстве через MCP
- Вам нужны автономные агенты по расписанию
- Для вас важны провайдеры в песочнице, которые подтягиваются из OCI
Когда выбрать что-то другое
- LiteLLM: Нужно 100+ интеграций провайдеров, и вас устраивает Python
- LangChain: Нужна большая экосистема chains, retrievers и поддержка JS
- CrewAI: Нужна простая ролевая мультиагентность на Python
- Ollama: Нужно просто быстро запустить локальную модель