by Brian Soetaert Jan 20, 2026
Breitband, WLAN und die ersten Smartphones trieben den Netzwerkverkehr in Unternehmen bis 2004 an seine Grenzen. MPLS-VPNs umfassten plötzlich mehr Standorte, als ein einzelner Techniker sich vorstellen konnte. Ausfälle betrafen mehrere Domänen, und das vorhandene Fachwissen reichte nicht mehr aus.
Zwanzig Jahre später beheben KI-Agenten Netzwerkprobleme in Maschinengeschwindigkeit… aber nur, weil jede Generation der Automatisierung vor ihnen eine bestimmte Einschränkung gelöst hat. NetBrainDie Entwicklung von [Name der Plattform] folgt diesem Pfad: von der Visualisierung der Topologie über die Kodierung von Fachwissen und die Validierung von Absichten bis hin zu Agenten, die Ziele verstehen.
Betrachten wir die einzelnen Generationen, die zur unvermeidlichen Entwicklung von KI als kritischem Bestandteil moderner Netzwerkbetriebssysteme geführt haben, und wie sich Netzwerkteams auf das Zeitalter der agentenbasierten KI vorbereiten können.
Anfang der 2000er-Jahre bedeutete der tägliche Betrieb, sich einzeln in die Geräte einzuloggen und den Kontext im Kopf zu erfassen. Das funktionierte, bis Netzwerke begannen, Hunderte von Geräten an mehreren Standorten zu umfassen. Wenn etwas ausfiel, rekonstruierten die Techniker die Topologie aus dem Gedächtnis, anhand veralteter Visio-Diagramme und fragmentierter Dokumentation.
Die kartenbasierte Automatisierung löste das Kontextproblem. NetBrainDie erste Plattform von [Name des Unternehmens] kombinierte CLI-Automatisierung mit dynamischer Topologieerkennung: ein lebendiges Diagramm, das auf einem digitalen Zwilling basiert. Ingenieure konnten Pfade visualisieren, Gerätekonfigurationen abrufen und Abhängigkeiten in Echtzeit einsehen, anstatt statische Dokumente durchsuchen zu müssen.
Die Automatisierung gewann an räumlichem Verständnis. Befehle wurden mit einem unmittelbaren Verständnis dafür ausgeführt, wo sich ein Gerät im Gesamtnetzwerk befindet. Ebenso wichtig war, dass das Netzwerkwissen von den Köpfen einzelner Ingenieure in ein gemeinsames, abfragefähiges System überging und so den Kontext zentralisierte, anstatt ihn über Skripte und Tabellen zu verstreuen.
Virtualisierung veränderte die Spielregeln. Die Topologie konnte sich ändern, ohne dass jemand die physische Hardware berührte. Das Netzwerk, das ein Techniker am Montag sah, konnte am Mittwoch schon anders aussehen, nicht aufgrund einer Neugestaltung, sondern weil sich die Arbeitslasten verschoben hatten. Netzwerkkarten lösten das Problem „Wo ist was?“, doch die Fehlersuche hing weiterhin davon ab, dass einzelne Experten ihre eigenen Befehlssequenzen ausführten, die sie in persönlichen Notizbüchern oder einmaligen Skripten dokumentierten.
Die Vorfälle betrafen virtuelle Switches, Firewalls und frühe Cloud-Gateways. Dieselben Muster wiederholten sich (VPN-Fehlkonfigurationen, QoS-Probleme, asymmetrisches Routing), aber die Diagnoseverfahren blieben implizites Wissen.
NetBrainDie zweite Generation führte Low-Code-Qapps ein: wiederverwendbare Diagnosemodule, die auf dem digitalen Zwilling ausgeführt wurden. Ingenieure stellten Prüfungen und Datenabfragen mithilfe von Bausteinen zusammen, anstatt für jedes Szenario benutzerdefinierte Skripte zu schreiben. Die Qapp passte diese Prüfungen an die jeweilige Topologie an, die der digitale Zwilling zur Laufzeit erkannte.
Die Automatisierung entwickelte sich von „Zeig mir das Layout“ zu „Zeig mir, was und in welcher Reihenfolge zu prüfen ist“. Als ein erfahrener Ingenieur eine bewährte Fehlersuchsequenz in eine Qapp kodierte, konnte das gesamte Team sie nutzen. Fachwissen wurde zu Software.
Mitte der 2010er-Jahre war das Netzwerk fragmentiert. Multi-Cloud-Architekturen ermöglichten es, dass Anwendungsdatenverkehr AWS, Azure, lokale Rechenzentren und Zweigstellen in einer einzigen Transaktion durchlaufen konnte. Kubernetes und Microservices führten zu sich ständig verändernden Verbindungsmustern. SD-WAN veränderte die Art und Weise, wie Zweigstellen Cloud-Ressourcen anbanden.
Qapps bewältigte einzelne Diagnoseaufgaben gut, doch Vorfälle erforderten zunehmend die Koordination verschiedener Teams, beispielsweise zur Überprüfung von Sicherheitsrichtlinien, zur Überprüfung der Konnektivität durch Cloud-Ingenieure und zur Nachverfolgung von Netzwerkpfaden. Jede Gruppe nutzte unterschiedliche Tools und folgte unterschiedlichen Vorgehensweisen. Die Wiederherstellung des Dienstes bedeutete, mehrere Schritte unter Zeitdruck manuell zusammenzuführen.
RunbookDie auf dieser Grundlage entwickelte Automatisierung orchestrierte ganze Arbeitsabläufe anstatt einzelner Aufgaben. runbook könnte Konfigurationen abrufen, Pfadanalysen durchführen, die Einhaltung der Absichten prüfen und die Ergebnisse in einer wiederholbaren Abfolge dokumentieren. runbookDa sie auf dem digitalen Zwilling operierten, passten sie sich automatisch der tatsächlichen Topologie an.
Runbooks kodierte die exakte Abfolge, die ein leitender Ingenieur bei einem Ausfall befolgen würde, und machte diesen Prozess so für jeden zugänglich. Der Engpass war nicht länger individuelles Fachwissen.
Die durch die Pandemie bedingte Telearbeit zwang Unternehmen, ihre Konnektivität quasi über Nacht umzustellen und dabei stark auf VPN, SD-WAN und Cloud-Gateways zu setzen. SASE- und Zero-Trust-Architekturen integrierten Sicherheitsrichtlinien direkt in die Konnektivitätsstruktur. Observability-Plattformen begannen, alle verfügbaren Daten zu streamen und die Teams mit Telemetriedaten zu überschwemmen.
Angesichts rollierender Cloud-Bereitstellungen, dynamischer Sicherheitsrichtlinien und sich ständig ändernder Verkehrsmuster wurde es unmöglich, jeden Workflow für jeden Fehlerfall im Voraus zu skripten. Selbst bei gut konzipierten runbookDaher war der Raum möglicher Szenarien zu groß. Die Teams mussten wissen, ob das Netzwerk noch den Geschäftsanforderungen entsprach, und nicht nur, wie sie im Fehlerfall reagieren sollten.
Die absichtsbasierte Automatisierung hat das Modell umgekehrt. Ingenieure definierten die gewünschten Ergebnisse (Erreichbarkeitsanforderungen, Segmentierungsregeln, Leistungsschwellenwerte, Compliance-Richtlinien) und ließen das System überprüfen, ob diese Absichten im Live-Netzwerk auch tatsächlich zutrafen. NetBrainDie vierte Generation baute auf ihrem digitalen Zwilling auf, um diese Absichten zu kodieren und sie automatisch mit der Echtzeit-Topologie und dem Echtzeit-Zustand abzugleichen.
Die Ingenieure konzentrierten sich auf die Definition von Richtlinien und Erfolgskriterien, anstatt jede einzelne Prüfung aufzulisten. Die Automatisierung entwickelte sich von reaktiver Fehlerbehebung zu kontinuierlicher Verifizierung. Dadurch wurde die Grundlage geschaffen, die KI benötigte: ein System, das bereits verstand, wie „korrekt“ aussieht, und bereit für Agenten war, die logisch nachvollziehen konnten, wie dieser Zustand wiederhergestellt werden kann.
Die absichtsbasierte Automatisierung verdeutlichte zwar, was „gut“ bedeutet, doch eine Lücke blieb bestehen. Die Erkennung von Absichtsverletzungen zwang die Entwickler weiterhin dazu, in kritischen Situationen Protokolle, Pfade, Richtlinien und Änderungshistorien manuell zusammenzutragen. Das System konnte zwar Probleme melden, doch die Behebung lag nach wie vor in der Verantwortung des Menschen.
Große Sprachmodelle wurden etwa ab 2023 für den Unternehmenseinsatz praktikabel. Diese Modelle konnten Tickets lesen, CLI-Ausgaben analysieren, Ereignisse korrelieren und Hypothesen deutlich schneller als Menschen aufstellen, vorausgesetzt, ihnen stand ein umfangreiches Datenmodell zur Verfügung. Ein ausgereifter digitaler Zwilling, kodifizierte Absichten und KI-Logik, die in Maschinengeschwindigkeit arbeiten konnte, konnten endlich zusammenarbeiten.
NetBrainDie fünfte Generation von [Name der Plattform] ergänzt ihren digitalen Zwilling und die Golden Intents um eine Agentenebene. KI-Agenten können ein Ziel aufnehmen („Zugriff für diese Anwendung wiederherstellen, ohne Sicherheitsrichtlinien zu verletzen“), den aktuellen Zustand des Netzwerks untersuchen und die notwendigen Diagnose- und Behebungsschritte innerhalb vordefinierter Grenzen auswählen oder zusammenstellen.
Routinemäßige Fehlerbehebungs- und Verifizierungsaufgaben laufen zunehmend in Maschinengeschwindigkeit ab. Agenten eskalieren nur bei Unklarheiten, widersprüchlichen Absichten oder Richtliniengrenzen. Entwickler definieren diese Grenzen, legen neue Absichten fest und optimieren das Wissen, auf das sich die Agenten stützen. Die Rolle verlagert sich von der manuellen Ausführung hin zur Festlegung des Betriebsablaufs.

Netzwerke erstrecken sich heute über mehrere Clouds, Remote-Standorte und Sicherheitsdomänen. Manuelle Fehlerbehebung und Ad-hoc-Skripte können da nicht mehr mithalten. Jede ungelöste Ticketwarteschlange und jedes wiederkehrende Vorfallsmuster zeigt, dass die aktuelle Automatisierungsgeneration an ihre Grenzen stößt. Techniker verbringen Zeit damit, Pfade zu rekonstruieren, Protokolle zu korrelieren und bekannte Prüfungen erneut durchzuführen – Aufgaben, die Maschinen zuverlässig erledigen können.
Gartner® prognostiziert: „Bis 2030 werden KI-Agenten der gängigste Ansatz zur Ausführung von Netzwerk-Laufzeitaktivitäten sein, gegenüber einer minimalen Nutzung Ende 2025.“
Seit über einem Jahrzehnt ist das GUI-Dashboard die primäre Schnittstelle – ein Fenster zu Switches, Firewalls und Cloud-Verbindungen. Doch laut einer Branchenstudie von Gartner® schließt sich dieses Fenster.
Es findet ein grundlegender Wandel statt, der nicht nur die Werkzeuge der Netzwerkteams neu definieren wird, sondern auch die Arbeitsweise der Teams und die Schwerpunkte ihrer Expertise.
Der Übergang zu agentenbasierter KI beseitigt nicht die Aufgaben von Netzwerktechnikern, sondern definiert sie neu. Netzwerktechniker werden zu strategischen Koordinatoren anstatt zu operativen Mitarbeitern. Ihre Expertise bleibt unerlässlich. Sie konzentriert sich nun darauf, Richtlinien festzulegen, die Grenzen von KI-Systemen zu definieren und Ausnahmen zu behandeln, die Agenten nicht lösen können. Die menschlichen Fähigkeiten erweitern, nicht ersetzen.
NetBrainDie Entwicklungslinie von bietet einen praktischen Migrationspfad. Dieselben architektonischen Entscheidungen, die kartenbasierte und runbook-basierte Automatisierung effektiv (dynamic mappingKodifizierte Fehlerbehebungslogik und ein umfassendes Netzwerkdatenmodell bilden die Grundlage für KI-Agenten, die Ziele verstehen und innerhalb vorgegebener Richtlinien agieren. Unternehmen können ihre Modernisierung schrittweise durchführen, da jeder Schritt die Umgebung für KI-gestützte Prozesse vorbereitet.
Für Teams, die bereit sind, zu erkunden, wie man agentenbasierte Funktionen sicher pilotieren und sich kulturell auf diesen Wandel vorbereiten kann, bietet Gartner einen ausführlicheren Leitfaden zur Vorbereitung von NetOps auf agentenbasierte KI an.
GARTNER ist eine Marke von Gartner, Inc. und/oder deren verbundenen Unternehmen.
Gartner, Die Zukunft von NetOps ist agentenbasiert, von Andrew Lerner, Mike Leibovitz, John Watts, Jonathan Forest, 5. Januar 2026
Die Daten sind nicht das Problem. Was man damit macht, schon. Jahrelang fehlte Netzwerkteams der Einblick in Ausfallzeiten, trotz … mehr Telemetriedaten, mehr Dashboards, mehr Warnmeldungen … und …
Netzwerkteams stehen von allen Seiten unter Druck. Sie müssen komplexe Hybridnetzwerke verfügbar und sicher halten, haben aber keine wirkliche End-to-End-Transparenz, sodass Ausfälle, Leistungsprobleme und Sicherheitslücken auftreten können.
NetOps prägt die Art und Weise, wie Organisationen ihre digitalen Ökosysteme erweitern, Innovationen vorantreiben und schützen. (Informiert durch) DevOpsNetOps kombiniert hybride Architekturen, verteilte Workloads und KI-gestützte Rechenzentren zu schnellen, anpassungsfähigen Systemen...
Wir verwenden Cookies, um Inhalte zu personalisieren und Ihre Nutzung der Website zu verstehen, um das Benutzererlebnis zu verbessern. Durch die Nutzung unserer Website stimmen Sie allen Cookies gemäß unserer Datenschutzrichtlinie zu.