Порівняння
QueryMT проти альтернативних LLM-фреймворків
Жоден фреймворк не найкращий для всього. Ось як QueryMT порівнюється і коли що обирати.
| Функція | QueryMT | LiteLLM | LangChain | CrewAI | Ollama |
| Мова | Rust | Python | Python/JS | Python | Go |
| Кількість провайдерів | 17+ | 100+ | ~40 | ~10 | ~5 (локально) |
| Модель плагінів | WASM/native з OCI | Python packages | Pip packages | Pip packages | Built-in |
| Провайдери в пісочниці | | — | — | — | — |
| Агенти з конфігу | | — | — | — | — |
| Мультиагентний кворум | | — | — | | — |
| Mesh-мережа | | — | — | — | — |
| Спільний доступ без облікових даних | | — | — | — | — |
| Desktop MCP (дані пристрою) | | — | — | — | — |
| Агенти за розкладом | | — | — | — | — |
| Постійні знання | | — | | | — |
| Локальний GPU inference | | | — | — | ✓ |
| Паралельна оцінка | ✓ | ✓ | — | — | — |
| Підтримка MCP | ✓ | — | ✓ | — | — |
| Структурований вивід | ✓ | ✓ | ✓ | — | — |
| Розширення VS Code | ✓ | — | — | — | — |
Коли використовувати QueryMT
- Вам потрібні агенти з конфігів, а не код
- Вам потрібна mesh-мережа або шеринг провайдерів без передачі облікових даних
- Вам потрібен доступ до даних на пристрої через MCP
- Вам потрібні автономні агенти за розкладом
- Вам важливі провайдери в пісочниці, що витягуються з OCI
Коли обрати щось інше
- LiteLLM: Потрібно 100+ інтеграцій провайдерів і вас влаштовує Python
- LangChain: Потрібна велика екосистема chains, retrievers і JS-підтримка
- CrewAI: Потрібна проста рольова мультиагентність у Python
- Ollama: Потрібно просто швидко запустити локальну модель