Porównanie
QueryMT na tle alternatywnych frameworków LLM
Żaden framework nie jest najlepszy do wszystkiego. Tak wypada QueryMT i kiedy który wybór ma sens.
| Funkcja | QueryMT | LiteLLM | LangChain | CrewAI | Ollama |
| Język | Rust | Python | Python/JS | Python | Go |
| Liczba providerów | 17+ | 100+ | ~40 | ~10 | ~5 (lokalnie) |
| Model pluginów | WASM/native z OCI | Python packages | Pip packages | Pip packages | Built-in |
| Sandboxed providery | | — | — | — | — |
| Agenci definiowani configiem | | — | — | — | — |
| Multi-agent quorum | | — | — | | — |
| Mesh networking | | — | — | — | — |
| Credentialless sharing | | — | — | — | — |
| Desktop MCP (dane urządzenia) | | — | — | — | — |
| Zaplanowani agenci | | — | — | — | — |
| Trwały knowledge | | — | | | — |
| Lokalna GPU inference | | | — | — | ✓ |
| Równoległa ewaluacja | ✓ | ✓ | — | — | — |
| Obsługa MCP | ✓ | — | ✓ | — | — |
| Strukturyzowany output | ✓ | ✓ | ✓ | — | — |
| Rozszerzenie VS Code | ✓ | — | — | — | — |
Kiedy używać QueryMT
- Chcesz agentów config-driven zamiast kodu
- Potrzebujesz mesh networking albo credentialless provider sharing
- Chcesz dostęp do danych urządzenia przez MCP
- Potrzebujesz zaplanowanych, autonomicznych agentów
- Zależy Ci na sandboxed providerach pobieranych z OCI
Kiedy użyć czegoś innego
- LiteLLM: Potrzebujesz 100+ integracji providerów i Python Ci odpowiada
- LangChain: Chcesz duży ekosystem chains, retrievers i wsparcie JS
- CrewAI: Chcesz prosty multi-agent system oparty na rolach w Pythonie
- Ollama: Chcesz po prostu szybko uruchomić lokalny model