Comparaison
QueryMT face aux frameworks LLM alternatifs
Aucun framework n’est le meilleur partout. Voici comment QueryMT se compare et quand choisir quoi.
| Fonctionnalité | QueryMT | LiteLLM | LangChain | CrewAI | Ollama |
| Langage | Rust | Python | Python/JS | Python | Go |
| Nombre de providers | 17+ | 100+ | ~40 | ~10 | ~5 (local) |
| Modèle de plugins | WASM/native depuis OCI | Packages Python | Packages Pip | Packages Pip | Built-in |
| Providers sandboxés | | — | — | — | — |
| Agents définis par config | | — | — | — | — |
| Quorum multi-agent | | — | — | | — |
| Mesh networking | | — | — | — | — |
| Partage sans credentials | | — | — | — | — |
| Desktop MCP (données appareil) | | — | — | — | — |
| Agents planifiés | | — | — | — | — |
| Knowledge persistante | | — | | | — |
| Inférence GPU locale | | | — | — | ✓ |
| Évaluation parallèle | ✓ | ✓ | — | — | — |
| Support MCP | ✓ | — | ✓ | — | — |
| Sortie structurée | ✓ | ✓ | ✓ | — | — |
| Extension VS Code | ✓ | — | — | — | — |
Quand utiliser QueryMT
- Vous voulez des agents pilotés par config plutôt que par code
- Vous avez besoin de mesh networking ou de provider sharing sans credentials
- Vous voulez accéder aux données de l’appareil via MCP
- Vous avez besoin d’agents autonomes planifiés
- Vous tenez aux providers sandboxés récupérés depuis OCI
Quand choisir autre chose
- LiteLLM: Vous avez besoin de 100+ intégrations de providers et Python vous convient
- LangChain: Vous voulez un large écosystème de chains, retrievers et support JS
- CrewAI: Vous voulez un système multi-agent simple basé sur des rôles en Python
- Ollama: Vous voulez simplement lancer vite un modèle local