QueryMT против альтернативных LLM-фреймворков

Не существует фреймворка, который был бы лучшим для всего. Вот как QueryMT выглядит на фоне альтернатив и когда что выбирать.

ФункцияQueryMTLiteLLMLangChainCrewAIOllama
ЯзыкRustPythonPython/JSPythonGo
Количество провайдеров17+100+~40~10~5 (локально)
Модель плагиновWASM/native из OCIPython packagesPip packagesPip packagesBuilt-in
Провайдеры в песочнице
Агенты из конфига
Мультиагентный кворум
Mesh-сеть
Совместный доступ без учетных данных
Desktop MCP (данные устройства)
Агенты по расписанию
Постоянные знания
Локальный GPU inference
Параллельная оценка
Поддержка MCP
Структурированный вывод
Расширение VS Code

Когда использовать QueryMT

  • Вам нужны агенты из конфигов, а не код
  • Вам нужна mesh-сеть или шеринг провайдеров без передачи учетных данных
  • Вам нужен доступ к данным на устройстве через MCP
  • Вам нужны автономные агенты по расписанию
  • Для вас важны провайдеры в песочнице, которые подтягиваются из OCI

Когда выбрать что-то другое

  • LiteLLM: Нужно 100+ интеграций провайдеров, и вас устраивает Python
  • LangChain: Нужна большая экосистема chains, retrievers и поддержка JS
  • CrewAI: Нужна простая ролевая мультиагентность на Python
  • Ollama: Нужно просто быстро запустить локальную модель