QueryMT frente a frameworks LLM alternativos

Nenhum framework é o melhor para tudo. Veja como o QueryMT se compara e quando escolher cada opção.

RecursoQueryMTLiteLLMLangChainCrewAIOllama
LinguagemRustPythonPython/JSPythonGo
Quantidade de fornecedores17+100+~40~10~5 (local)
Modelo de pluginsWASM/native desde OCIPython packagesPip packagesPip packagesBuilt-in
Fornecedores em sandbox
Agentes definidos por config
Quorum multiagente
Rede mesh
Partilha sem credenciais
Desktop MCP (dados do dispositivo)
Agentes agendados
Conhecimento persistente
Inferência GPU local
Avaliação paralela
Suporte MCP
Saída estruturada
Extensão do VS Code

Quando usar QueryMT

  • Quer agentes guiados por config, não por código
  • Precisa de rede mesh ou partilha de fornecedores sem credenciais
  • Quer acesso a dados do dispositivo via MCP
  • Precisa de agentes agendados e autónomos
  • Importa-se com fornecedores em sandbox obtidos via OCI

Quando usar outra coisa

  • LiteLLM: Precisa de 100+ integrações de fornecedores e Python serve para si
  • LangChain: Quer um grande ecossistema de chains, retrievers e suporte JS
  • CrewAI: Quer multiagentes simples baseados em papéis em Python
  • Ollama: Só quer correr um modelo local rapidamente