Open Source · Rust

AI agents, die zusammenarbeiten.
In config definiert. Per mesh verbunden.

Eine TOML-Datei = ein vollständiger autonomer agent mit LLM, tools, Scheduling, Speicher und mesh Networking. Teile Provider, ohne API keys zu teilen. Läuft auf deinem Gerät. Keine cloud, kein Python, keine credential leaks.

Auch verfügbar als Rust-Bibliothek, CLI, VS Code Extension und iOS/Android FFI.

Installation mit einem Befehl

curl -sSf https://query.mt/install.sh | sh

macOS Silicon: nach dem Download das quarantine flag entfernen:  xattr -dr com.apple.quarantine qmtcode
Für Rust-Entwickler: hinzufügen zu: Cargo.tomlquerymt = { version = "0.3", features = ["extism_host"] }

Fünf Säulen, die querymt QueryMT auszeichnen

Jedes Feature gehört zu einer dieser Säulen. Zusammen ergeben sie ein Framework, das andere nicht bieten.

Drei Schritte von config zu laufendem agent

1

TOML-Datei schreiben

[agent]
provider = "anthropic"
model = "..."
tools = ["shell", "knowledge_ingest"]

[[mcp]]
name = "github"

[[middleware]]
type = "limits"
2

Einen Befehl ausführen

qmtcode --config agent.toml --dashboard
Agent startet
Lädt MCP-Server
Erstellt knowledge store
Startet scheduler
Verbindet sich mit mesh
3

Dashboard verwenden

chat > Mit ihm chatten
cron > Einplanen
tail > Beim Laufen beobachten
mode > Modus wechseln

17+ Provider, eine API

WASM- oder native plugins aus OCI. Standardmäßig sandboxed. Automatische GPU-Erkennung für lokale inference.

$ qmt providers list 17 Adapter
provider-registry status: plugin-ready
[01] plugin: OpenAI bereit
[02] plugin: Anthropic bereit
[03] plugin: Google bereit
[04] plugin: Groq bereit
[05] plugin: xAI bereit
[06] plugin: Ollama bereit
[07] plugin: llama.cpp bereit
[08] plugin: Mistral bereit
[09] plugin: DeepSeek bereit
[10] plugin: Alibaba bereit
[11] plugin: Moonshot bereit
[12] plugin: Kimi-Code bereit
[13] plugin: OpenRouter bereit
[14] plugin: Codex bereit
[15] plugin: Z.AI bereit
[16] plugin: Izwi bereit
[17] plugin: MRS bereit

Wo passt du rein?