Häufig gestellte Fragen
Antworten auf die häufigsten Fragen zu ToolMesh, dem Model Context Protocol (MCP) und DADL. Fehlt deine Frage? Öffne ein Issue auf GitHub oder starte mit dem Getting-Started-Leitfaden.
MCP
Was ist MCP (Model Context Protocol)?
MCP ist ein offener Standard von Anthropic, der es KI-Anwendungen wie Claude oder ChatGPT ermöglicht, sich über ein einheitliches Protokoll mit externen Tools, Datenbanken und APIs zu verbinden. Man kann es sich wie USB-C für KI vorstellen: Statt für jeden Dienst eigene Integrationen zu bauen, bietet MCP eine einzige standardisierte Schnittstelle. KI-Modelle können verfügbare Tools zur Laufzeit entdecken, verstehen wie sie zu nutzen sind und Kontext über mehrere Operationen hinweg aufrechterhalten — etwas, wofür klassische APIs nie entworfen wurden.
Was ist ein MCP-Server?
Ein MCP-Server ist ein leichtgewichtiges Programm, das bestimmte Fähigkeiten — wie das Abfragen einer Datenbank, den Aufruf einer API oder das Lesen von Dateien — über das Model Context Protocol an KI-Anwendungen bereitstellt. Das KI-Modell verbindet sich mit dem Server, entdeckt welche Tools verfügbar sind und nutzt sie, um Aufgaben zu erledigen. MCP-Server können lokal oder als entfernte, über das Netzwerk erreichbare Dienste laufen.
Wie baut man einen MCP-Server?
Der klassische Ansatz erfordert, dass man einen eigenen Server in Python, TypeScript oder Go mit dem MCP-SDK schreibt — inklusive Transport, Tool-Registrierung, Authentifizierung und Fehlerbehandlung. ToolMesh macht das überflüssig. Man beschreibt seine API in DADL (Dunkel API Description Language), und ToolMesh stellt sie automatisch als voll funktionsfähigen MCP-Server bereit. Kein Code, kein SDK, keine eigene Server-Infrastruktur. Man beschreibt die API einmal, und jeder MCP-kompatible KI-Client kann sie sofort nutzen.
Was ist der Unterschied zwischen MCP und APIs?
APIs sind für Entwickler gebaut: Man liest Dokumentation, schreibt Integrationscode und verwaltet die Authentifizierung selbst. MCP ist für KI-Agenten gebaut: Es erlaubt Modellen, Tools zur Laufzeit zu entdecken, ihre Parameter zu verstehen und sie eigenständig zu nutzen. MCP ersetzt APIs nicht — es legt eine KI-freundliche Schicht darüber. ToolMesh verbindet beide Welten, indem es jede REST-API (beschrieben in DADL) ohne Glue-Code in ein MCP-zugängliches Tool verwandelt.
Ist MCP sicher?
MCP bringt im Vergleich zu klassischen APIs neue Sicherheitsherausforderungen mit sich, darunter Prompt Injection, Tool Poisoning, zu weitreichende Berechtigungen und die Offenlegung von Zugangsdaten. Die Sicherheit hängt vollständig von der Implementierung ab. ToolMesh adressiert diese Risiken über seine Sechs-Säulen-Architektur: einen serverseitigen CredentialStore für das Secrets-Management, OpenFGA-basierte Autorisierung (ReBAC), ein Output Gate mit DLP-Richtlinien und vollständiges Audit-Logging. Zugangsdaten erreichen das KI-Modell nie — ToolMesh injiziert sie serverseitig zum Zeitpunkt der Anfrage.
Was ist der Unterschied zwischen MCP und RAG?
RAG (Retrieval-Augmented Generation) reichert KI-Antworten an, indem relevante Dokumente vor der Antwortgenerierung abgerufen werden — es ist nur lesend und fokussiert auf Wissen. MCP ist breiter: Es erlaubt KI-Modellen, Daten zu lesen und Aktionen auszuführen, etwa Datensätze zu erstellen, APIs aufzurufen oder Workflows auszulösen. RAG beantwortet Fragen aus einer Wissensbasis; MCP ermöglicht es der KI, tatsächlich etwas in externen Systemen zu tun. Sie sind komplementär — ToolMesh kann sowohl Retrieval- als auch Action-Tools über MCP bereitstellen.
Kann ich MCP mit ChatGPT verwenden?
Ja. OpenAI hat 2025 MCP-Unterstützung zu ChatGPT hinzugefügt. Jeder über HTTPS erreichbare Remote-MCP-Server kann mit ChatGPT verbunden werden. ToolMesh bietet von Haus aus einen Remote-MCP-Endpunkt, sodass in DADL beschriebene APIs automatisch für ChatGPT, Claude, Cursor und jeden anderen MCP-kompatiblen Client verfügbar sind — ohne für jede Plattform eigene Integrationen bauen zu müssen.
DADL
Was ist DADL?
DADL (Dunkel API Description Language) ist ein kompaktes, YAML-basiertes Format zur Beschreibung von REST-APIs in einer Form, die KI-Modelle verstehen und nutzen können. Eine einzige DADL-Datei definiert Endpunkte, Parameter, Authentifizierung und Antworttypen. ToolMesh liest DADL-Dateien und macht daraus live MCP-Tools — ganz ohne Server-Code. DADL ist Open Source und wurde so entworfen, dass es menschenlesbar, versionierbar und über die DADL-Registry teilbar ist.
Wie passt DADL zu Harness Engineering?
DADL (Dunkel API Description Language) ist faktisch Harness-Configuration-as-Code für die Tool-Registry-Komponente eines Agent-Harness. Aktuelle akademische Arbeit zu Harness-Reporting (das HARNESSCARD-Paper, 2026) kritisiert, dass die meisten Agent-Publikationen nicht dokumentieren, wie ihre Tools konfiguriert waren — was Ergebnisse schwer reproduzierbar macht. Eine DADL-Datei ist eine kompakte, versionierbare Beschreibung jedes Tools, das ein Harness bereitstellt, inklusive Parameter, Authentifizierung und Pagination. Das Teilen einer DADL-Datei genügt, um die exakte Tool-Oberfläche zu rekonstruieren, die ein Agent zur Verfügung hatte — genau das, was Harness-Reporting-Standards fordern.
ToolMesh
Was ist ToolMesh?
ToolMesh ist ein Open-Source-MCP-Server-Aggregator und -Gateway. Er ermöglicht es, mehrere APIs und Datenquellen über einen einzigen MCP-Endpunkt mit jeder KI-Anwendung zu verbinden. Statt einzelne MCP-Server zu bauen und zu warten, beschreibt man seine APIs in DADL, und ToolMesh übernimmt Tool-Registrierung, Credential-Management, Autorisierung und Request-Ausführung. ToolMesh ist in Go geschrieben, läuft als einzelner Docker-Container und ist unter Apache 2.0 lizenziert.
Wie unterscheidet sich ToolMesh von anderen MCP-Servern?
Die meisten MCP-Server stellen einen einzelnen Dienst bereit — einen Server für GitHub, einen weiteren für Slack, einen weiteren für die Datenbank. ToolMesh aggregiert mehrere APIs hinter einem einzigen MCP-Endpunkt. Er ergänzt Funktionen, die einzelnen MCP-Servern fehlen: zentrales Credential-Management über einen pluggable CredentialStore, feingranulare Autorisierung via OpenFGA, ein Output Gate zur Verhinderung von Datenabfluss und einen Code Mode für dynamische Tool-Ausführung. Man verwaltet ein einziges Gateway statt dutzender separater Server.
Muss ich Code schreiben, um ToolMesh zu nutzen?
Nein. Der Kern-Workflow von ToolMesh kommt ohne Code aus: Man schreibt eine DADL-Datei, die die API beschreibt, lädt sie in ToolMesh, und die API ist als MCP-Tool verfügbar. DADL-Dateien sind einfaches YAML und definieren Endpunkte, Parameter und Authentifizierung — keine Programmierung erforderlich. Für fortgeschrittene Anwendungsfälle erlaubt der Code Mode von ToolMesh das Ausführen eigener Skripte, aber der Standardweg von der API zum MCP-Tool benötigt keine Zeile Code.
Welche APIs funktionieren mit ToolMesh?
Jede REST-API lässt sich an ToolMesh anbinden, indem man sie in DADL beschreibt. Für beliebte Dienste — darunter GitHub, GitLab, Cloudflare, Stripe, Hetzner Cloud, DeepL, Tailscale und weitere — gibt es fertige DADL-Dateien über die DADL-Registry. Für interne oder eigene APIs kann man DADL selbst schreiben. Wenn eine API HTTP-Endpunkte hat, kann ToolMesh sie als MCP-Tools bereitstellen.
Wie geht ToolMesh mit API-Zugangsdaten um?
ToolMesh speichert Zugangsdaten serverseitig im EmbeddedStore — verschlüsselt abgelegt und niemals gegenüber dem KI-Modell oder dem MCP-Client sichtbar. Wenn ToolMesh die Ziel-API aufruft, werden die passenden Credentials zur Laufzeit in die Anfrage injiziert, sodass Secrets aus Prompts, Tool-Beschreibungen und Tool-Ergebnissen herausgehalten werden. Der CredentialStore ist eine pluggable Schnittstelle, über die sich zusätzliche Backends für zentrales Secret-Management anbinden lassen, ohne dass Tool-Definitionen angepasst werden müssen.
Ist ToolMesh Open Source?
Ja. ToolMesh wird unter der Apache-2.0-Lizenz veröffentlicht. Alle aktuellen Funktionen — einschließlich MCP-Aggregation, DADL-Unterstützung, CredentialStore, OpenFGA-Autorisierung und Output Gate — sind vollständig Open Source und auf GitHub verfügbar.
Agent-Harnesses
Was ist ein AI-Agent-Harness?
Ein AI-Agent-Harness — sinngemäß ein Steuergerüst für KI-Agenten — ist das Software-System, das ein Sprachmodell durch mehrere Turns einer Observe-Think-Act-Schleife führt — es entscheidet, was als Nächstes zu tun ist, ruft Tools auf, verarbeitet Ergebnisse und hält Zustand zwischen den Schritten. Der Begriff wurde im Februar 2026 von OpenAI offiziell etabliert; in der Forschung wird ein Harness in sechs Komponenten strukturiert: Execution Loop (E), Tool Registry (T), Context Management (C), State Store (S), Lifecycle Hooks (L) und Verification/Audit (V). Claude Code, OpenHands, DeepAgents und SemaClaw sind Beispiele für Agent-Harnesses. Aktuelle empirische Arbeiten (Pi Research, Stanford/MIT, HAL) zeigen, dass meist nicht das Modell, sondern der Harness das Bottleneck für Agent-Performance ist.
Ist ToolMesh ein Agent-Harness?
Nein. ToolMesh betreibt nicht die Observe-Think-Act-Schleife — das ist Aufgabe des Harness. ToolMesh ist eine eigenständige Tool-Registry-und-Lifecycle-Hooks-Schicht (die T- und L-Komponenten im Sechs-Komponenten-Framework), die sich über MCP hinter jeden beliebigen Harness hängen lässt. Sie übernimmt Autorisierung, Credential-Injection, Content-Gating und vollständiges Audit, sodass der Harness selbst schlank bleiben kann. Kurz: ToolMesh ist kein Harness — ToolMesh ist das, was einen Harness gut macht. Claude Code, OpenHands, DeepAgents, SemaClaw oder ein eigenes Agent-Framework können ToolMesh als Tool-Execution-Backend nutzen, ohne ihre eigene Agent-Loop aufzugeben.