Összehasonlítás
QueryMT az alternatív LLM keretrendszerekkel szemben
Nincs mindenre legjobb framework. Így viszonyul a QueryMT a többiekhez, és mikor melyiket érdemes választani.
| Funkció | QueryMT | LiteLLM | LangChain | CrewAI | Ollama |
| Nyelv | Rust | Python | Python/JS | Python | Go |
| Providerek száma | 17+ | 100+ | ~40 | ~10 | ~5 (lokális) |
| Plugin modell | WASM/native OCI-ból | Python-csomagok | Pip-csomagok | Pip-csomagok | Beépített |
| Sandboxolt providerek | | — | — | — | — |
| Configban definiált ágensek | | — | — | — | — |
| Multi-agent quorum | | — | — | | — |
| Mesh hálózat | | — | — | — | — |
| Credentialless megosztás | | — | — | — | — |
| Desktop MCP (eszközadatok) | | — | — | — | — |
| Ütemezett ágensek | | — | — | — | — |
| Tartós knowledge | | — | | | — |
| Lokális GPU inferencia | | | — | — | ✓ |
| Párhuzamos értékelés | ✓ | ✓ | — | — | — |
| MCP támogatás | ✓ | — | ✓ | — | — |
| Strukturált kimenet | ✓ | ✓ | ✓ | — | — |
| VS Code bővítmény | ✓ | — | — | — | — |
Mikor használd a QueryMT-t
- Konfigurációvezérelt ágenseket szeretnél, nem kódot
- Mesh hálózatra vagy credentialless provider megosztásra van szükséged
- Eszközadatokhoz szeretnél hozzáférni MCP-n át
- Ütemezett, autonóm ágensek kellenek
- Fontosak a sandboxolt, OCI-ból húzott providerek
Mikor használj mást
- LiteLLM: 100+ provider integráció kell, és a Python megfelel
- LangChain: Nagy chain/retriever ökoszisztémát és JS támogatást szeretnél
- CrewAI: Egyszerű szerepalapú multi-ágens rendszert szeretnél Pythonban
- Ollama: Csak gyorsan futtatnál egy lokális modellt