比较
QueryMT 与其他 LLM frameworks 对比
没有一个 framework 适合所有场景。这里说明 QueryMT 如何比较,以及什么时候该选择什么。
| 功能 | QueryMT | LiteLLM | LangChain | CrewAI | Ollama |
| 语言 | Rust | Python | Python/JS | Python | Go |
| 提供商数量 | 17+ | 100+ | ~40 | ~10 | ~5 (local) |
| 插件模型 | WASM/native from OCI | Python packages | Pip packages | Pip packages | Built-in |
| 沙箱化提供商 | | — | — | — | — |
| 配置定义的智能体 | | — | — | — | — |
| 多智能体仲裁 | | — | — | | — |
| Mesh 网络 | | — | — | — | — |
| 无凭证共享 | | — | — | — | — |
| 桌面端 MCP(设备数据) | | — | — | — | — |
| 定时智能体 | | — | — | — | — |
| 持久化知识 | | — | | | — |
| 本地 GPU 推理 | | | — | — | ✓ |
| 并行评估 | ✓ | ✓ | — | — | — |
| MCP 支持 | ✓ | — | ✓ | — | — |
| 结构化输出 | ✓ | ✓ | ✓ | — | — |
| VS Code 扩展 | ✓ | — | — | — | — |
什么时候使用 QueryMT
- 你想要 config-driven agents,而不是写代码
- 你需要 mesh networking 或 credentialless provider sharing
- 你想通过 MCP 访问 device data
- 你需要 scheduled autonomous agents
- 你重视 sandboxed、从 OCI 拉取的 providers
什么时候选择其他方案
- LiteLLM: 你需要 100+ provider integrations,并且接受 Python
- LangChain: 你想要庞大的 chains、retrievers 和 JS support 生态
- CrewAI: 你想要 Python 中简单的 role-playing multi-agent
- Ollama: 你只是想快速运行 local model