QueryMT na tle alternatywnych frameworków LLM

Żaden framework nie jest najlepszy do wszystkiego. Tak wypada QueryMT i kiedy który wybór ma sens.

FunkcjaQueryMTLiteLLMLangChainCrewAIOllama
JęzykRustPythonPython/JSPythonGo
Liczba providerów17+100+~40~10~5 (lokalnie)
Model pluginówWASM/native z OCIPython packagesPip packagesPip packagesBuilt-in
Sandboxed providery
Agenci definiowani configiem
Multi-agent quorum
Mesh networking
Credentialless sharing
Desktop MCP (dane urządzenia)
Zaplanowani agenci
Trwały knowledge
Lokalna GPU inference
Równoległa ewaluacja
Obsługa MCP
Strukturyzowany output
Rozszerzenie VS Code

Kiedy używać QueryMT

  • Chcesz agentów config-driven zamiast kodu
  • Potrzebujesz mesh networking albo credentialless provider sharing
  • Chcesz dostęp do danych urządzenia przez MCP
  • Potrzebujesz zaplanowanych, autonomicznych agentów
  • Zależy Ci na sandboxed providerach pobieranych z OCI

Kiedy użyć czegoś innego

  • LiteLLM: Potrzebujesz 100+ integracji providerów i Python Ci odpowiada
  • LangChain: Chcesz duży ekosystem chains, retrievers i wsparcie JS
  • CrewAI: Chcesz prosty multi-agent system oparty na rolach w Pythonie
  • Ollama: Chcesz po prostu szybko uruchomić lokalny model