QueryMT frente a frameworks LLM alternativos

Nenhum framework é o melhor para tudo. Veja como o QueryMT se compara e quando escolher cada opção.

RecursoQueryMTLiteLLMLangChainCrewAIOllama
LinguagemRustPythonPython/JSPythonGo
Quantidade de provedores17+100+~40~10~5 (local)
Modelo de pluginsWASM/native desde OCIPython packagesPip packagesPip packagesBuilt-in
Provedores em sandbox
Agentes definidos por config
Quorum multiagente
Rede mesh
Compartilhamento sem credenciais
Desktop MCP (dados do dispositivo)
Agentes agendados
Conhecimento persistente
Inferência GPU local
Avaliação paralela
Suporte MCP
Saída estruturada
Extensão do VS Code

Quando usar QueryMT

  • Você quer agentes guiados por config, não por código
  • Você precisa de rede mesh ou compartilhamento de provedores sem credenciais
  • Você quer acesso a dados do dispositivo via MCP
  • Você precisa de agentes agendados e autônomos
  • Você se importa com provedores em sandbox obtidos via OCI

Quando usar outra coisa

  • LiteLLM: Você precisa de 100+ integrações de provedores e Python serve para você
  • LangChain: Você quer um grande ecossistema de chains, retrievers e suporte JS
  • CrewAI: Você quer multiagentes simples baseados em papéis em Python
  • Ollama: Você só quer executar um modelo local rapidamente