QueryMT frente a frameworks LLM alternativos

Ningún framework es el mejor para todo. Así se compara QueryMT y cuándo elegir cada opción.

FunciónQueryMTLiteLLMLangChainCrewAIOllama
LenguajeRustPythonPython/JSPythonGo
Cantidad de proveedores17+100+~40~10~5 (local)
Modelo de pluginsWASM/native desde OCIPython packagesPip packagesPip packagesBuilt-in
Proveedores en sandbox
Agentes definidos por config
Quórum multiagente
Red mesh
Uso compartido sin credenciales
Desktop MCP (datos del dispositivo)
Agentes planificados
Conocimiento persistente
Inferencia GPU local
Evaluación paralela
Soporte MCP
Salida estructurada
Extensión de VS Code

Cuándo usar QueryMT

  • Quieres agentes guiados por config, no por código
  • Necesitas red mesh o compartir proveedores sin credenciales
  • Quieres acceso a datos del dispositivo vía MCP
  • Necesitas agentes programados y autónomos
  • Te importan los proveedores en sandbox traídos desde OCI

Cuándo usar otra cosa

  • LiteLLM: Necesitas 100+ integraciones de proveedores y te sirve Python
  • LangChain: Quieres un gran ecosistema de chains, retrievers y soporte JS
  • CrewAI: Quieres multiagentes simples basados en roles en Python
  • Ollama: Solo quieres ejecutar un modelo local rápidamente