Täglicher Standup Reporter
Läuft alle 24 Stunden, analysiert die git history, speichert Erkenntnisse und erstellt einen Standup-Bericht. Keine manuelle Aktion nötig.
Eine TOML-Datei = ein vollständiger autonomer agent mit LLM, tools, Scheduling, Speicher und mesh Networking. Teile Provider, ohne API keys zu teilen. Läuft auf deinem Gerät. Keine cloud, kein Python, keine credential leaks.
[agent] provider = "anthropic" model = "claude-sonnet-4-5-20250929" tools = ["shell", "knowledge_ingest", "knowledge_query"] # Run once a day, forever [agent.execution] max_steps = 30 max_turns = 15
qmtcode --config standup_bot.toml --dashboard Auch verfügbar als Rust-Bibliothek, CLI, VS Code Extension und iOS/Android FFI.
curl -sSf https://query.mt/install.sh | sh xattr -dr com.apple.quarantine qmtcode Cargo.toml —
querymt = { version = "0.3", features = ["extism_host"] } Jedes Feature gehört zu einer dieser Säulen. Zusammen ergeben sie ein Framework, das andere nicht bieten.
Definiere LLM, tools, MCP-Server, Scheduling und middleware in einer TOML-Datei. Kein Code.
Mehr erfahren →Mesh nodes stellen LLMs bereit, ohne API keys offenzulegen. Verbindung über signierte invite tokens, sogar als QR-Code.
Mehr erfahren →Calendar, Contacts, Messages, Maps: alles auf dem Gerät via iMCP. Auch iOS und Android.
Mehr erfahren →Auto-discovery über LAN oder Internet. Delegation zwischen Maschinen. Geteilte sessions.
Mehr erfahren →17+ Provider als OCI plugins. WASM sandbox. Automatische GPU-Erkennung für lokale inference.
Mehr erfahren →13 startbereite agent configs. Kopiere eine, passe sie an und starte sie. Jede zeigt eine andere Fähigkeit.
Läuft alle 24 Stunden, analysiert die git history, speichert Erkenntnisse und erstellt einen Standup-Bericht. Keine manuelle Aktion nötig.
Prüft alle 30 Minuten TODOs, Testanzahl, Dependencies, toten Code und Doku-Abdeckung. Verfolgt Trends.
Findet Verhaltensmuster in Gerätedaten. Liefert proaktive Briefings darüber, was deinen Tag stören könnte.
Query für Calendar, Contacts, Messages, Reminders, Maps und Weather via iMCP. Alles auf dem Gerät, alles lokal.
Interaktiver Research Assistant mit persistentem Speicher. Erkenntnisse ingestieren, später abfragen und automatisch konsolidieren.
Planner + coder quorum, das mit der Zeit schlauer wird. Fragt vor neuer Planung frühere Entscheidungen ab.
Planner delegiert an spezialisierten coder mit GPU. Parallele Delegation mit Verifikation.
Quorum aus drei agents mit GitHub MCP. Jeder delegate hat andere tools und Provider.
Einfaches Template mit einem agent, tools und optionalem MCP. Der Einstiegspunkt.
Coding agent mit Build/Plan/Review-Modi. Git snapshots. Dreischichtige context compaction.
Fortgeschrittenes context management mit tool output compaction via SQLite FTS5 und routing guardrails.
Minimaler config für einen coder delegate. Template zum Hinzufügen neuer delegates zu einem quorum.
Agent config für die Einbettung in eine VS Code Extension. Modi, middleware und MCP-Integration.
[agent] provider = "anthropic" model = "..." tools = ["shell", "knowledge_ingest"] [[mcp]] name = "github" [[middleware]] type = "limits"
qmtcode --config agent.toml --dashboard
WASM- oder native plugins aus OCI. Standardmäßig sandboxed. Automatische GPU-Erkennung für lokale inference.
Nutze querymt als Framework-Bibliothek. Builder pattern, traits, plugin system.
Core docs →Installiere qmt und chatte direkt aus dem Terminal.
CLI docs →Definiere agents in TOML. Starte sie mit dashboard.
Showcase →Starte Modelle auf deiner eigenen GPU. Keine cloud. Kein Python.
Device Agent →Teile Modelle mit Freunden. Verbinde dich per invite token.
Provider Sharing →