比較
QueryMT と代替 LLM frameworks の比較
どの framework も万能ではありません。QueryMT がどう違い、いつ何を選ぶべきかを示します。
| 機能 | QueryMT | LiteLLM | LangChain | CrewAI | Ollama |
| 言語 | Rust | Python | Python/JS | Python | Go |
| プロバイダー数 | 17+ | 100+ | ~40 | ~10 | ~5 (local) |
| プラグインモデル | WASM/native from OCI | Python packages | Pip packages | Pip packages | Built-in |
| サンドボックス化プロバイダー | | — | — | — | — |
| 設定定義エージェント | | — | — | — | — |
| マルチエージェント合議 | | — | — | | — |
| Mesh ネットワーク | | — | — | — | — |
| 認証情報不要の共有 | | — | — | — | — |
| デスクトップ MCP(デバイスデータ) | | — | — | — | — |
| 定期実行エージェント | | — | — | — | — |
| 永続ナレッジ | | — | | | — |
| ローカル GPU 推論 | | | — | — | ✓ |
| 並列評価 | ✓ | ✓ | — | — | — |
| MCP サポート | ✓ | — | ✓ | — | — |
| 構造化出力 | ✓ | ✓ | ✓ | — | — |
| VS Code 拡張 | ✓ | — | — | — | — |
QueryMT を使うべきとき
- code ではなく config-driven agents が欲しい
- mesh networking や credentialless provider sharing が必要
- MCP 経由で device data にアクセスしたい
- scheduled autonomous agents が必要
- sandboxed で OCI から取得する providers を重視する
別のものを選ぶべきとき
- LiteLLM: 100+ provider integrations が必要で Python で問題ない
- LangChain: chains、retrievers、JS support の大きな ecosystem が欲しい
- CrewAI: Python のシンプルな role-playing multi-agent が欲しい
- Ollama: local model をすばやく実行したいだけ