QueryMT 与其他 LLM frameworks 对比

没有一个 framework 适合所有场景。这里说明 QueryMT 如何比较,以及什么时候该选择什么。

功能QueryMTLiteLLMLangChainCrewAIOllama
语言RustPythonPython/JSPythonGo
提供商数量17+100+~40~10~5 (local)
插件模型WASM/native from OCIPython packagesPip packagesPip packagesBuilt-in
沙箱化提供商
配置定义的智能体
多智能体仲裁
Mesh 网络
无凭证共享
桌面端 MCP(设备数据)
定时智能体
持久化知识
本地 GPU 推理
并行评估
MCP 支持
结构化输出
VS Code 扩展

什么时候使用 QueryMT

  • 你想要 config-driven agents,而不是写代码
  • 你需要 mesh networking 或 credentialless provider sharing
  • 你想通过 MCP 访问 device data
  • 你需要 scheduled autonomous agents
  • 你重视 sandboxed、从 OCI 拉取的 providers

什么时候选择其他方案

  • LiteLLM: 你需要 100+ provider integrations,并且接受 Python
  • LangChain: 你想要庞大的 chains、retrievers 和 JS support 生态
  • CrewAI: 你想要 Python 中简单的 role-playing multi-agent
  • Ollama: 你只是想快速运行 local model