QueryMT と代替 LLM frameworks の比較

どの framework も万能ではありません。QueryMT がどう違い、いつ何を選ぶべきかを示します。

機能QueryMTLiteLLMLangChainCrewAIOllama
言語RustPythonPython/JSPythonGo
プロバイダー数17+100+~40~10~5 (local)
プラグインモデルWASM/native from OCIPython packagesPip packagesPip packagesBuilt-in
サンドボックス化プロバイダー
設定定義エージェント
マルチエージェント合議
Mesh ネットワーク
認証情報不要の共有
デスクトップ MCP(デバイスデータ)
定期実行エージェント
永続ナレッジ
ローカル GPU 推論
並列評価
MCP サポート
構造化出力
VS Code 拡張

QueryMT を使うべきとき

  • code ではなく config-driven agents が欲しい
  • mesh networking や credentialless provider sharing が必要
  • MCP 経由で device data にアクセスしたい
  • scheduled autonomous agents が必要
  • sandboxed で OCI から取得する providers を重視する

別のものを選ぶべきとき

  • LiteLLM: 100+ provider integrations が必要で Python で問題ない
  • LangChain: chains、retrievers、JS support の大きな ecosystem が欲しい
  • CrewAI: Python のシンプルな role-playing multi-agent が欲しい
  • Ollama: local model をすばやく実行したいだけ