Vergleich
QueryMT im Vergleich zu alternativen LLM-Frameworks
Kein Framework ist für alles das beste. So vergleicht sich QueryMT und wann welche Wahl sinnvoll ist.
| Feature | QueryMT | LiteLLM | LangChain | CrewAI | Ollama |
| Sprache | Rust | Python | Python/JS | Python | Go |
| Provider-Anzahl | 17+ | 100+ | ~40 | ~10 | ~5 (lokal) |
| Plugin-Modell | WASM/native aus OCI | Python packages | Pip packages | Pip packages | Built-in |
| Sandboxed Provider | | — | — | — | — |
| Config-definierte agents | | — | — | — | — |
| Multi-agent quorum | | — | — | | — |
| Mesh Networking | | — | — | — | — |
| Credentialless Sharing | | — | — | — | — |
| Desktop MCP (Gerätedaten) | | — | — | — | — |
| Geplante agents | | — | — | — | — |
| Persistentes knowledge | | — | | | — |
| Lokale GPU inference | | | — | — | ✓ |
| Parallele Evaluation | ✓ | ✓ | — | — | — |
| MCP-Unterstuetzung | ✓ | — | ✓ | — | — |
| Strukturierte Ausgabe | ✓ | ✓ | ✓ | — | — |
| VS Code Extension | ✓ | — | — | — | — |
Wann du QueryMT nutzen solltest
- Du willst config-driven agents statt Code
- Du brauchst mesh Networking oder credentialless Provider Sharing
- Du willst Zugriff auf Gerätedaten via MCP
- Du brauchst geplante, autonome agents
- Dir sind sandboxed, aus OCI geladene Provider wichtig
Wann du etwas anderes nutzen solltest
- LiteLLM: Du brauchst 100+ Provider-Integrationen und Python passt für dich
- LangChain: Du willst ein großes Ökosystem aus chains, retrievers und JS-Support
- CrewAI: Du willst ein einfaches rollenbasiertes multi-agent System in Python
- Ollama: Du willst nur schnell ein lokales Modell starten