Foto von Brett Sayles auf Pexels Source

Anthropic veröffentlichte die Agent-Skills-Spezifikation am 18. Dezember 2025. Innerhalb von 48 Stunden integrierten Microsoft das Format in VS Code und OpenAI fügte es sowohl ChatGPT als auch Codex CLI hinzu. Bis März 2026 lesen 32 Tools konkurrierender Unternehmen, darunter Googles Gemini CLI, JetBrains’ Junie, AWS’ Kiro und Blocks Goose, dieselben SKILL.md-Dateien aus derselben Verzeichnisstruktur. Das anthropics/skills-Repository erreichte 100.000 GitHub-Stars. Vercels skills.sh-Marktplatz listet 89.753 Skills. Das ist die schnellste herstellerübergreifende Standardisierung im KI-Tooling, und sie funktionierte, weil die gesamte Spezifikation in ein Dokument passt, das man in einer Kaffeepause lesen kann.

Die Geschichte dahinter handelt nicht von technischer Überlegenheit. Es geht um die spezifischen Bedingungen, die eine “köstlich winzige Spezifikation”, wie Simon Willison sie nannte, für jeden Akteur im KI-Coding-Tool-Markt unwiderstehlich machten.

Weiterlesen: KI-Agent-Skills-Marktplatz: Das neue Plugin-Ökosystem

Was SKILL.md tatsächlich spezifiziert

Die gesamte Spezifikation definiert eine einzige Sache: ein Verzeichnis mit einer SKILL.md-Datei und YAML-Frontmatter. Das ist die verpflichtende Oberfläche. Alles andere ist optional.

---
name: deploy-vercel
description: Deploys applications to Vercel with zero-downtime configuration
---

# Deploy to Vercel

## When to Use
Activate when the user asks to deploy, ship, or push to production.

## Instructions
1. Check for vercel.json in the project root...
2. Run vercel --prod with the appropriate flags...

Das Frontmatter hat zwei Pflichtfelder: name (maximal 64 Zeichen, Kleinbuchstaben und Bindestriche) und description (maximal 1.024 Zeichen). Optionale Felder umfassen license, compatibility, metadata und ein experimentelles allowed-tools-Feld zur Vorabgenehmigung von Tool-Zugriff. Der Body ist Markdown mit Anweisungen, die der Agent liest und ausführt.

Was das Ganze skalierbar macht, ist das dreistufige Progressive-Disclosure-Modell. Beim Start lädt ein Agent nur name und description jedes installierten Skills, etwa 100 Tokens pro Skill. Ein Entwickler mit 50 installierten Skills fügt circa 5.000 Tokens Context-Overhead hinzu. Der vollständige SKILL.md-Body (empfohlen unter 5.000 Tokens) wird erst geladen, wenn der Agent den Skill aktiviert. Unterstützende Dateien in scripts/, references/ oder assets/ werden nur geladen, wenn der Skill sie während der Ausführung explizit referenziert.

Das bedeutet: 100 installierte Skills verbrauchen kein Kontextfenster, solange sie nicht benötigt werden. Verglichen mit einer einzigen CLAUDE.md- oder .cursorrules-Datei, in der jede Anweisung um Aufmerksamkeit konkurriert, ist das ein fundamentaler Architekturvorteil.

Die 48-Stunden-Adoptionskette

Der Zeitablauf sagt mehr über diesen Standard als seine technische Spezifikation.

Anthropic veröffentlichte Agent Skills nicht aus dem Nichts. Das anthropics/skills-Repository wurde am 22. September 2025 erstellt. Skills erschienen im Oktober als Claude-Code-Feature. Anfang Dezember bemerkte Simon Willison, dass OpenAIs Codex CLI bereits einen Pull Request mit dem Titel “feat: experimental support for skills.md” gemerged hatte. Elias Judin fand am 12. Dezember einen /home/oai/skills-Ordner in ChatGPT. Sechs Tage vor der offiziellen Ankündigung baute OpenAI bereits Unterstützung dafür.

Am 18. Dezember publizierte Anthropic die Spezifikation auf agentskills.io. Was folgte, war die komprimierteste Standardisierung in der jüngeren Developer-Tooling-Geschichte:

  • 48 Stunden: Microsoft integrierte Agent Skills über Copilot in VS Code. OpenAI fügte Support in ChatGPT und Codex CLI hinzu. Das GitHub-Repository überschritt 20.000 Stars.
  • 20. Januar 2026: Vercel startete skills.sh, einen vollständigen Marktplatz mit CLI-Installation. Der Top-Skill erreichte 20.000 Installationen innerhalb von sechs Stunden.
  • 5. Februar 2026: AWS’ Kiro IDE lieferte Agent-Skills-Support aus.
  • März 2026: agentskills.io listet 32 Adopter, darunter Google (Gemini CLI), JetBrains (Junie), Sourcegraph (Amp), Block (Goose), Snowflake, Databricks, ByteDance, Mistral AI und Spring AI.

Am 9. Dezember, neun Tage vor der Open-Standard-Veröffentlichung, gründete die Linux Foundation die Agentic AI Foundation (AAIF) mit Anthropic, OpenAI und Block als Gründungsmitgliedern. MCP, AGENTS.md und Goose wurden als initiale Projekte eingebracht. Bis Februar 2026 wuchs die AAIF auf 146 Mitgliedsorganisationen und bietet damit ein institutionelles Zuhause für die Weiterentwicklung des Standards unter neutraler Governance.

Weiterlesen: Agentic AI Foundation: So standardisiert die Linux Foundation die Agenten-Ära

Warum Konkurrenten übernahmen statt zu forken

Standardisierungsgremien brauchen Jahre, um konkurrierende Anbieter auf gemeinsame Formate zu einigen. Agent Skills schaffte 32 Tools in 90 Tagen. Drei Faktoren erklären das.

Die Spezifikation ist klein genug für einen Nachmittag

Die gesamte Spezifikation besteht aus zwei Pflicht-YAML-Feldern und einem Markdown-Body. Ein kompetenter Entwickler kann Agent-Skills-Support an einem Nachmittag in jedes Tool einbauen. Keine komplexen Serialisierungsformate, keine Protokollverhandlungen, keine Auth-Flows, keine Laufzeitabhängigkeiten. Verglichen mit der Implementierung von MCP-Support, der laufende Server, OAuth, Transport-Layer und persistente Verbindungen erfordert, ist der Aufwand nahe null.

Wenn die Adoptionskosten gegen null tendieren, verschiebt sich die Kalkulation von “Ist das die bestmögliche Spezifikation?” zu “Werden meine Nutzer das erwarten?” Und sobald zwei große Player innerhalb von 48 Stunden adoptiert hatten, lautete die Antwort für alle anderen: Ja.

Skills modularisieren Wissen, keine APIs

MCP und Agent Skills werden oft verglichen, lösen aber unterschiedliche Probleme. MCP bietet strukturierten API-Zugang zu externen Tools und Datenquellen. Agent Skills verpacken prozedurales Wissen: wie Aufgaben erledigt werden, welche Konventionen gelten, welche Muster zu verwenden sind.

Ein Beispiel: MCP lässt einen Agenten auf eure Datenbank zugreifen. Ein Skill bringt dem Agenten eure Team-Migrationskonventionen bei. MCP beantwortet “Worauf habe ich Zugriff?” Skills beantworten “Wie soll ich arbeiten?” Da sie komplementär sind, konkurrierten Agent Skills mit keiner bestehenden Protokollinvestition eines Anbieters.

Netzwerkeffekte griffen sofort

Skills sind standardmäßig portabel. Ein für Claude Code geschriebener Skill funktioniert in Codex CLI, Cursor, Gemini CLI und Kiro ohne Änderung. Die 89.753 Skills auf skills.sh waren sofort für jedes neue Tool nutzbar, das den Standard übernahm. Für Tool-Hersteller bedeutete Agent-Skills-Support sofortigen Zugang zu einer wachsenden Bibliothek. Für Skill-Autoren erreichte ein einziger veröffentlichter Skill 32 Plattformen. Das Schwungrad war von Woche eins an selbstverstärkend.

Blocks Engineering-Team veröffentlichte drei Prinzipien für das Design interner Skills und betreibt über 100 Skills für Goose, von POS-Crash-Untersuchung über Feature-Flag-Management bis hin zu Oncall-Runbooks und API-Style-Enforcement. Enterprise-Partner-Skills von Atlassian, Figma, Canva, Stripe, Notion und Zapier folgten wenige Wochen nach der Standardveröffentlichung.

Was die Qualitätsdaten wirklich zeigen

Schnelle Adoption brachte ein vertrautes Problem: Quantität überholt Qualität.

Der Agent Skill Report analysierte 673 Skills und stellte fest, dass 22% die strukturelle Validierung nicht bestehen. Von Unternehmen erstellte Skills schneiden bei Compliance-Metriken schlechter ab als Community-Sammlungen. 52% aller Tokens in Skill-Repositories sind Nicht-Standard-Dateien (LICENSE-Dateien, Build-Artefakte, Schemas), die das Kontextfenster verschwenden. Die meisten Skills wiederholen Wissen, das das LLM bereits hat; der Report identifizierte Neuartigkeit als den entscheidenden Differenzierungsfaktor zwischen nützlichen und nutzlosen Skills.

Verhaltensdegradation ist messbar. Der Report identifizierte sechs Mechanismen, durch die schlecht geschriebene Skills die Agent-Leistung verschlechtern: Template-Propagation (Impact-Score: -0,483), Architectural Pattern Bleed (-0,317), Token-Budget-Wettbewerb (-0,384), Textual Frame Leakage (-0,233), API-Halluzination (-0,117) und Cross-Language Code Bleed. Ein schlechter Skill schadet nicht nur nicht. Er verschlechtert aktiv die Basisleistung des Agenten bei nicht verwandten Aufgaben.

Weiterlesen: KI-Agent-Skills sind die neuen npm-Pakete, und niemand prüft sie

Der Sicherheitspreis der Offenheit

Das Supply-Chain-Sicherheitsbild ist ernüchternd. Snyks ToxicSkills-Studie untersuchte im Februar 2026 3.984 Skills von ClawHub und skills.sh. Ergebnisse: 36% enthalten Sicherheitsmängel. 76 Skills hatten bestätigte bösartige Payloads. 341 feindliche Skills ließen sich auf eine einzige koordinierte Kampagne namens “ClawHavoc” zurückverfolgen, die den Atomic Stealer (AMOS) macOS-Infostealer auslieferte.

Die Hürde zur Veröffentlichung eines Skills: eine SKILL.md-Datei und ein eine Woche altes GitHub-Konto. Kein Code-Signing. Kein Sicherheitsreview. Keine Sandbox standardmäßig. Das ist der Preis einer Spezifikation, die auf reibungslose Adoption ausgelegt ist. Dieselbe Eigenschaft, die es 32 legitimen Tools trivial einfach machte, den Standard zu übernehmen, macht es auch Angreifern trivial einfach, bösartige Inhalte zu veröffentlichen.

Für DACH-Unternehmen kommt eine weitere Dimension hinzu: Die DSGVO und der EU AI Act stellen zusätzliche Anforderungen an die Nachvollziehbarkeit von KI-Systemen. Wenn ein Agent über unkontrollierte Skills Zugriff auf personenbezogene Daten erhält, entsteht ein Compliance-Risiko, das über reine IT-Sicherheit hinausgeht. Die BaFin und andere Aufsichtsbehörden beobachten die Entwicklung agentischer Systeme aufmerksam.

Die Lösung wird vermutlich von der Agentic AI Foundation kommen, die Governance-Strukturen, Verified-Publisher-Programme und Provenance-Standards bereitstellt. Aber Stand März 2026 befindet sich das Ökosystem in der “Move fast”-Phase. Die Sicherheitsinfrastruktur hinkt der Adoption um Monate hinterher.

Wo Agent Skills im Gesamtstack stehen

Agent Skills besetzen eine spezifische Schicht in der entstehenden agentischen KI-Infrastruktur:

MCP regelt den Tool-Zugang: Verbindungen zu Datenbanken, APIs und externen Diensten. A2A (Agent-to-Agent-Protokoll) regelt die Multi-Agent-Kommunikation. Agent Skills regeln prozedurales Wissen: was ein Agent tun soll und wie er in einem bestimmten Kontext arbeiten soll. AGENTS.md definiert projektspezifische Konfiguration und Berechtigungen.

Diese Schichtung bedeutet, dass ein typisches Produktions-Setup MCP-Server für Jira, Slack und Datenbankzugriff nutzt, Agent Skills für Coding-Konventionen, Deployment-Workflows und Review-Checklisten, und A2A für die Weiterleitung von Aufgaben zwischen spezialisierten Agenten. Jede Schicht löst ein anderes Problem, und Agent Skills sind die einzige Schicht, die null Infrastruktur zur Adoption erfordert.

Die arxiv-Analyse von 40.285 öffentlich gelisteten Skills ergab, dass der Median-Skill 1.414 Tokens umfasst (Durchschnitt: 1.895). 90% liegen unter 3.935 Tokens. 99% unter 9.253 Tokens. Das sind kleine, fokussierte Wissenseinheiten, keine monolithischen Konfigurationen. Das Format fördert Spezifität: ein Skill pro Aufgabenbereich, nicht ein Skill, der alles abzudecken versucht.

Weiterlesen: VS Code 1.109: Wie die IDE zur Multi-Agent-Entwicklungsplattform wurde

Häufig gestellte Fragen

Was ist der Agent Skills offene Standard?

Agent Skills ist eine offene Spezifikation, die Anthropic am 18. Dezember 2025 veröffentlichte. Sie definiert ein universelles Format für die Verpackung von prozeduralem Wissen für KI-Coding-Agenten. Die Kerneinheit ist ein Verzeichnis mit einer SKILL.md-Datei mit YAML-Frontmatter und Markdown-Anweisungen. Der Standard wurde von 32 Tools übernommen, darunter Claude Code, OpenAI Codex, Cursor, VS Code, Gemini CLI, Kiro und Goose.

Wie viele Tools unterstützen Agent Skills?

Stand März 2026 unterstützen 32 Tools die Agent-Skills-Spezifikation, darunter Produkte von Anthropic (Claude Code), OpenAI (Codex CLI, ChatGPT), Microsoft (VS Code, GitHub Copilot), Google (Gemini CLI), JetBrains (Junie), AWS (Kiro), Block (Goose), Sourcegraph (Amp), Snowflake, Databricks, ByteDance (TRAE) und Mistral AI.

Was ist der Unterschied zwischen Agent Skills und MCP?

MCP (Model Context Protocol) bietet strukturierten API-Zugang zu externen Tools und Datenquellen. Agent Skills verpacken prozedurales Wissen und Anweisungen. MCP beantwortet “Worauf kann der Agent zugreifen?”, während Skills beantworten “Wie soll der Agent arbeiten?” Sie sind komplementäre Schichten. Skills erfordern keinen Server, keine Laufzeit und keine Infrastruktur: nur Markdown-Dateien in einem Verzeichnis.

Sind Agent Skills sicher zu installieren?

Das Ökosystem hat erhebliche Sicherheitslücken. Snyks ToxicSkills-Studie fand heraus, dass 36% der Skills auf großen Registries Sicherheitsmängel aufweisen und 76 bestätigte bösartige Payloads enthielten. Skills laufen innerhalb von KI-Agenten mit Shell-Zugriff und Dateisystemberechtigungen. DACH-Unternehmen sollten zusätzlich DSGVO- und EU-AI-Act-Konformität bei der Nutzung agentischer Skills prüfen. SKILL.md-Inhalte immer vor der Installation prüfen.

Wie installiere ich Agent Skills?

Die Installation variiert je nach Tool. Für Claude Code legt man Skill-Verzeichnisse in .claude/skills/ im Projekt ab. Für OpenAI Codex nutzt man .agents/skills/. Vercels skills.sh-Marktplatz bietet eine CLI: npx skills add author/skill-name. Man kann auch jedes Skill-Verzeichnis manuell von GitHub klonen oder in den Skills-Ordner des jeweiligen Tools kopieren.