Matthias Wegner • 27. Februar 2026
014 - KI braucht Architektur, nicht Aktionismus

Warum die eigentliche Transformationsfrage nicht technisch ist

In den Sozialen Medien tobt ein Stellungskrieg. Auf der einen Seite die KI-Propheten, die mit Apokalypse-Timelines ihre Reichweite maximieren. Auf der anderen Seite die Pragmatiker, die aus der Praxis berichten: Ja, KI verändert die Arbeit – aber anders, als die Headlines suggerieren. Erfahrene Enterprise Architekten beschreiben, wie sie mit Claude Code produktiver arbeiten als je zuvor – und gleichzeitig darauf hinweisen, dass ihr Domänenwissen und ihre Architekturerfahrung die Voraussetzung für diese Produktivität sind, nicht deren Opfer (1). Ich bin kein Freund von pauschalisierten Antworten die nur die Extrema von möglichen Perspektiven adressieren. Modellbildung muß immer mit Zweck und Kontext abgeglichen werden. Schauen wir uns deshalb das KI-Thema differenziert an.


Wird KI Tätigkeiten ersetzen, die heute von Menschen ausgeübt werden? Ja. Das tut sie bereits, und sie wird es in zunehmendem Umfang tun. Routineanalysen, Texterstellung, Codezeilen, Datenaufbereitung – überall dort, wo kognitive Arbeit wiederholbar und musterbasiert ist, übernimmt KI schneller und günstiger. Das zu leugnen wäre naiv.


Wird KI Menschen überflüssig machen? Nein – aber sie wird die Definition von Wert verschieben. Was gestern als Expertise galt (das Wissen, wie man etwas tut), wird zur Commodity. Was morgen zählt, ist Urteilsvermögen: zu wissen, was getan werden sollte, warum, und ob das Ergebnis stimmt. Und das erfordert fachliche Kompetenz und Erfahrung. Die Tätigkeit verschwindet, die Verantwortung bleibt. Und Verantwortung lässt sich nicht automatisieren.


Wird KI eine Arbeitslosenwelle erzeugen? Wahrscheinlich nicht in dem Umfang, den die Apokalyptiker predigen – aber die Übergänge werden schmerzhaft sein, wenn sie nicht gestaltet werden. Das Jevons-Paradoxon (dazu gleich mehr) deutet darauf hin, dass effizientere kognitive Leistung mehr Arbeit erzeugt, nicht weniger. Aber die Art der Arbeit wird sich verändern, und wer nicht lernt und befähigt wird, fällt durch das Raster. Die Frage ist nicht, ob es genug Arbeit gibt, sondern ob wir die Menschen rechtzeitig darauf vorbereiten.


Wird KI die Arbeit von Menschen optimieren oder verdichten? Beides – und genau hier liegt die Gefahr. Optimierung heißt, mit gleichem Aufwand bessere Ergebnisse zu erzielen. Verdichtung heißt, mit gleichem Output weniger Menschen zu beschäftigen. Die Entscheidung zwischen beiden ist keine technische, sondern eine der Führung. Wer auf Verdichtung setzt, gewinnt kurzfristig Marge und verliert langfristig Tragfähigkeit. Wer auf Optimierung setzt, investiert in die Fähigkeit, Komplexeres zu bewältigen.


Wer trägt die Verantwortung, wenn die KI falsch liegt? Nicht die KI – die kann keine Verantwortung tragen. Das erinnert mich an Pressemeldungen wo Autofahrer ihr Auto in Gräben, Kanäle und Co. manövriert haben, weil sie stumpf dem GPS folgten. ohne Kontext und Verstand zu benutzen (13). Jemand muss die Verantwortung übernehmen. Aber wer, wenn der Mensch mit dem Wissen längst gegangen ist? Wer versteht noch, was das System tut und warum? Wer kann eingreifen, wenn es schiefgeht?


Haben wir die Architektur, die das alles tragen kann? Das ist die Frage dieses Artikels. Und die aktuelle Antwort ist in den meisten Organisationen: Nein.



Martec's Law und die neue Schallmauer

Scott Brinker hat 2013 ein Gesetz formuliert, das seitdem immer relevanter wird: Technologie verändert sich exponentiell, Organisationen logarithmisch (2). Die Schere zwischen beiden wird größer, nicht kleiner. Und irgendwann muss jede Organisation einen Reset machen – eine bewusste Neuausrichtung, um den Gap nicht zur Kluft werden zu lassen.

Matrecs Law

KI ist nicht einfach die nächste Technologiewelle. Sie ist eine neue Schallmauer der Veränderungsdynamik und Technologieadaption und hat die Größte jemals gemessene Adaptionsrate. Keine Technologieadoptionskurve war je so steil. Und keine hat so direkt in die kognitive Wertschöpfung eingegriffen – also in das, was Wissensarbeiter zu Wissensarbeitern macht (14).

Technologieadoptionsrate

Der Reflex der meisten Organisationen: schneller werden. Schneller implementieren, schneller automatisieren, schneller die Effizienzgewinne einfahren. Und ebenfalls die Schnelligkeit als Mehrproduktivität oder Effizienzgewinn durch Delegation einfordern. Aber Geschwindigkeit ohne Architektur erzeugt mehr Reibungswiderstand (engl. Drag), nicht Momentum. Tony Lockwood formuliert es im Transformation Leaders Body of Knowledge (TLBoK) so: „Speed without architecture creates drag later. Architecture without courage creates analysis paralysis. But architecture with authority creates momentum that sustains" (5). Drag kommt aus der Physik und Aerodynamik. Es ist der Widerstand, der ein Objekt ausbremst. Wenn ein Flugzeug schlecht designt ist, erzeugt es bei höherer Geschwindigkeit mehr Luftwiderstand statt mehr Vortrieb. Übertragen auf Organisationen: Wer schnell transformiert, ohne die Architektur (also Strategy, Operating Model, Governance, Capabilities) mitzuziehen, erzeugt mit jedem Tempo-Schritt mehr internen Widerstand. Technische Schulden, ungeklärte Verantwortlichkeiten, überforderte Teams – das alles ist Drag. Je schneller man wird, desto stärker bremst es. Momentum ist das Gegenteil: Schwung, der sich selbst trägt. Ein gut designtes System gewinnt mit der Zeit an Fahrt, weil jede Veränderung die nächste durch Skalierung erleichtert statt sie zu behindern.


Das Jevons-Paradoxon: Mehr, nicht weniger

Bevor wir über Architektur sprechen, müssen wir einen Denkfehler auflösen, der die gesamte KI-Debatte vergiftet. Die meisten Diskussionen gehen davon aus, dass KI Arbeit ersetzt. Wer das glaubt, sollte sich mit William Stanley Jevons beschäftigen. 1865 beobachtete Jevons, dass effizientere Dampfmaschinen nicht zu weniger Kohleverbrauch führten, sondern zu mehr (6). Warum? Weil die Effizienzsteigerung neue Anwendungsfelder erschloss, die vorher unwirtschaftlich waren. Mehr Maschinen, nicht weniger. Mehr Kohle, nicht weniger.


Übertragen auf KI heißt das: Kostengünstigere kognitive Leistung ermöglicht Unternehmen, signifikant mehr Projekte, Experimente und Nischenideen umzusetzen, die bisher schlicht unwirtschaftlich waren. Das Ergebnis ist nicht weniger Wissensarbeit, sondern mehr. Nicht weniger Entwickler, sondern Entwickler, die die Wirkung von fünfzig erzielen – wenn sie richtig befähigt werden (7). Die richtige Frage ist nicht: „Wie ersetze ich fünf Entwickler durch KI?" Die richtige Frage ist: „Wie befähige ich fünf Entwickler, die Wirkung von fünfzig zu erzielen?" Und diese Frage ist eine Architektur-Frage.


Function follows form – die stille Sabotage

Tony Lockwood beschreibt im TLBoK vier Architekturschichten, die in jeder Organisation kohärent zusammenwirken müssen (5): Strategy gibt Richtung. Das Operating Model stellt sicher, dass die Organisation diese Richtung strukturell umsetzen kann. Governance klärt, wer welche Entscheidungen trifft. Und Capabilities sind die Fähigkeiten, die das System braucht, um Wert zu liefern.


Es sollte eigentlich meist das folgende architektonische Grundprinzip: Form follows function – die Gestalt leitet sich aus dem Zweck ab. Wenn eine Strategie ein Ziel setzt, dann bestimmt dieses Ziel, welche Fähigkeiten das System braucht, und daraus ergibt sich, wie Strukturen, Prozesse und Entscheidungswege gestaltet sein müssen.


In realen Veränderungsdynamiken gilt aber fast überall das Gegenteil. Function follows form. Nach diesem Prinzip zu arbeiten macht Sinn, wenn man explizit neue Dynamiken erzeugen will, z.B. bei aktiv kultureller Veränderung. Aber man ist schlecht beraten, wenn man das Prinzip unreflektiert verwendendet. Das passiert die Veränderung der Strategie einer Organisation mit „Wir setzen auf KI!" – läßt aber das Operating Model unangetastet. Die bestehende Struktur filtert dann still, welche Fähigkeiten überhaupt entwickelt werden können. Die Strategie sagt „wir brauchen X", aber das System ist gebaut, um Y zu liefern. Execution wird schwer, nicht weil die Menschen versagen, sondern weil die soziotechnologische Architektur nicht mitgezogen wurde.


Das ist die stille Sabotage, die in fast jeder KI-Transformation wirkt. Es werden KI-Tools eingeführt, Prompt-Engineering-Workshops veranstaltet, vielleicht sogar ein „Chief AI Officer" installiert – aber das Operating Model bleibt dasselbe. Die Governance-Strukturen bleiben dieselben. Die Teamtopologien bleiben dieselben. Und dann wundert man sich, warum die Transformation nicht die erhofften Ergebnisse liefert.


Die dreifache Legacy-Falle

Wer KI ohne architektonische Kohärenz einführt, erzeugt eine neue Form von Legacy, die gefährlicher ist als alles, was wir bisher kannten (8). In praktisch allen Unternehmen gibt es irgendwelche Alt-Server oder Einzelrechner, die irgendetwas am Laufen halten – den Drucker in der Produktionsinsel, das Kundenstammsystem in COBOL im Serverraum. Das ist technische Legacy im klassischen Sinne: veraltete geschäftskritische Systeme, die niemand mehr anfassen will.


KI erzeugt eine dreifache Legacy: Technische Legacy 2.0 ist die KI-spezifische Variante. Workflows, die auf KI-Modellen basieren, deren Verhalten sich ändert, deren Entscheidungslogik intransparent ist, deren Wartung und Validierung niemand eingeplant hat. Der entscheidende Unterschied zur klassischen Legacy: Bei Legacy 1.0 können wir theoretisch den Code lesen und verstehen. Bei Legacy 2.0 verstehen wir nicht einmal, warum das Modell von 2024 diese Entscheidung traf – weil es ein anderes Modell war als das von heute. Ein etablierter ISO-Prozess liefert morgen gesichert dasselbe Ergebnis. Ein LLM-Skill möglicherweise nicht.


Organisationale Legacy entsteht, wenn das Wissen in den Köpfen derer verschwindet, die gegangen sind. Verantwortungsketten, die im Organigramm enden, aber nicht in der Realität. Prozesse, die funktionieren – bis sie es nicht mehr tun, und dann weiß niemand mehr, warum sie überhaupt so aufgesetzt wurden. Wer führt die KI-Leiharbeiter? Die IT wird es nicht sein können, weil Geschäftsprozesse einen Owner im Business brauchen. Die fachliche Beurteilung der Leiharbeiter-Ergebnisse muss im Fachbereich liegen.


Identitäts-Legacy ist die am wenigsten diskutierte und vielleicht wirkungsvollste Form. Menschen, die ihre Kompetenz als Identität verstanden haben. Die jetzt nicht wissen, wer sie sind, wenn die KI „ihren Job" macht. Eine Generation von Fachexperten, deren Selbstwert erschüttert wurde, bevor jemand ihnen half, neue Quellen für Bedeutung zu finden.


Alle drei Formen von Legacy entstehen aus demselben Grundfehler: Geschwindigkeit ohne Architektur. Tools einführen, ohne das Operating Model anzupassen. Tätigkeiten automatisieren, ohne die Governance zu klären. Experten ersetzen, ohne ihre Nachfolger auszubilden.



Drei Achsen, ein System

Was wäre die Alternative? Wie sieht eine KI-Transformation aus, die architektonisch denkt statt aktionistisch handelt? Mein Arbeitsbuch zu "Zeitlos Verwurzelt" - noch unveröffentlicht wird "Zeitlos Handeln" heißen. In ihm habe ich in Kapitel 6.10 ein Drei-Achsen-Modell entwickelt, das genau diese Frage beantwortet (9). Es verbindet drei architektonisch modellbildende Perspektiven, die einzeln jeweils nur einen Teil der Geschichte erzählen:


Die erste Achse ist die organisationale Architekturdimension nach Lockwoods TLBoK (5): Von der Strategie über das Operating Model und die Governance bis zu den Capabilities muss jede Schicht kohärent sein. Die Frage hier ist: Was muss strukturell stimmen, damit Transformation gelingen kann?


Die zweite Achse ist die technologische Architekturdimension, wie sie Susanne Kaiser in Architecture for Flow beschreibt (10). Wardley Mapping zeigt, wo Capabilities in ihrer Evolution stehen – was neu und unsicher ist, was standardisiert und stabil. Eine Capability in der Genesis-Phase braucht explorative Strukturen mit viel Autonomie. Eine Commodity-Capability braucht Effizienz und Standardisierung. Wenn du eine entstehende Fähigkeit in ein standardisiertes Operating Model zwängst, erstickst du sie. Function follows form in Reinkultur.


Die dritte Achse ist die menschliche Tiefendimension – und sie ist der Grund, warum das Buch "Zeitlos Verwurzelt" existiert. Selbst wenn du Form follows function sauber umsetzt, die Architektur aus dem Zweck ableitest und das Operating Model zur Strategie passt, bleibt die Frage: Können die Menschen diese Form tragen?


Ein Operating Model, das Autonomie und Entscheidungsmut verlangt, funktioniert nicht in einer Kultur, die von Absicherung und Kontrolle geprägt ist. Ein Governance-Framework, das auf Vertrauen setzt, scheitert, wenn Vertrauen nie gewachsen ist. Dann hast du Form follows function auf dem Papier – aber "Culture eats structure for breakfast" in der Praxis.


Jede Architekturschicht hat eine menschliche Voraussetzung

Das Drei-Achsen-Modell macht sichtbar, was in rein technischen oder rein strukturellen Transformationsansätzen fehlt um das Gap zur technologischen und organisationalen Exzellenz zu schließen: Jede Architekturschicht hat eine menschliche Voraussetzung, die sich nicht designen lässt – sie muss wachsen.


Die Strategieschicht braucht innere Klarheit und echtes Buy-in, nicht verordnete Zustimmung. Wenn Führungskräfte die Strategie nicht in eigenen Worten formulieren können, ist sie nicht verstanden. Wenn sie sie nicht innerlich mittragen, wird sie sabotiert – meist unbewusst, durch Priorisierungsentscheidungen im Alltag.


Das Operating Model braucht kulturelle Tragfähigkeit – ein Gewächshaus, in dem Veränderung gedeihen kann (9). Im Arbeitsbuch nutze ich das Kulturtauchen nach Scheins Drei-Ebenen-Modell, um die Lücke zwischen verkündeter und gelebter Kultur sichtbar zu machen. Diese Lücke zu identifizieren ist nicht angenehm, aber sie ist der ehrlichste Startpunkt für jeden Wandel.


Governance braucht Vertrauen und Rollenklarheit – ohne beides wird Governance zum Theater. Wer entscheidet wirklich? Wer übernimmt Verantwortung, wenn es schiefgeht? Bei KI-Systemen ist diese Frage noch drängender als bei klassischen Prozessen, weil die Entscheidungslogik der Systeme selbst intransparent ist.


Und die Capability-Schicht braucht menschliche Reifung – weil Fähigkeiten in Menschen leben, nicht in Organigrammen. So sind Capabilities der natürliche Schnittpunkt aller drei Achsen. Eine Wardley Map zeigt, welche Capabilities gebraucht werden und wie sie sich entwickeln. TLBoK und Zeitlos Verwurzelt zeigen, in welcher Architektur sie wirken müssen. Und H.E.A.R. zeigt, ob die Menschen, die diese Capabilities verkörpern, dazu in der Lage sind – und was sie dafür brauchen.


Was architektonisches Denken konkret verändert

Wie unterscheidet sich eine Organisation, die architektonisch denkt, von einer, die aktionistisch handelt? Nicht in der Technologie – beide nutzen dieselben Modelle, dieselben APIs, dieselben Tools. Der Unterschied liegt in den Fragen, die vor der Implementierung gestellt werden.


Der Aktionist fragt: Welchen Prozess können wir automatisieren? Er implementiert, misst die Effizienzsteigerung, streicht Stellen und meldet Erfolg. Der Architekt fragt anders. Er beginnt bei der Capability: Was muss dieses System können, um Wert zu liefern? Dann prüft er die Evolutionsstufe: Ist das eine entstehende Fähigkeit, die Exploration braucht, oder eine standardisierte, die Effizienz braucht? Dann die Architektur: Passt das Operating Model zu dem, was diese Capability verlangt? Und schließlich die Tiefenfrage: Haben die Menschen die Reife, das zu tragen?


Ein konkretes Beispiel: Ein Unternehmen automatisiert die Vertragsanalyse mit KI. Der Aktionist ersetzt drei Juristen, feiert die Kosteneinsparung und geht zum nächsten Projekt. Der Architekt fragt: Wer verantwortet die Ergebnisse der KI-Analyse? Wie stellen wir sicher, dass Modellwechsel nicht die Qualität verändern? Wer hat das Fachwissen, um die Ausgabe zu beurteilen – und wie entwickeln wir dieses Wissen weiter, wenn es nicht mehr täglich angewendet wird? Welche Governance braucht ein System, dessen Entscheidungslogik sich mit jedem Update ändern kann?


Die Antworten auf diese Fragen sind unbequem, weil sie Investitionen erfordern statt Einsparungen zu liefern. Aber sie verhindern, was ich in einem früheren Artikel als die dreifache Legacy-Falle beschrieben habe (8): technische Legacy, wenn niemand mehr versteht, was das System tut; organisationale Legacy, wenn das Wissen mit den Menschen geht; und Identitäts-Legacy, wenn Fachexperten nicht wissen, wer sie sind, wenn die KI „ihren Job" macht.



Der Prüfstein: Wo stehst du?

Drei diagnostische Fragen, die jede Führungskraft sich stellen kann – eine pro Dimension:


Dimension 1 (Architektur): Wenn du deine KI-Strategie in drei Sätzen formulieren sollst, ohne auf eine Folie zu schauen – kannst du das? Und wenn ja: Stimmt das, was du sagst, mit dem überein, wie dein Operating Model tatsächlich gebaut ist? Oder sagst du „Innovation" und dein System liefert „Standardisierung"?


Dimension 2 (Landschaft): Weißt du, welche deiner Capabilities gerade in der Genesis-Phase sind – unsicher, explorativ, noch nicht verstanden – und welche bereits Commodity sind? Behandelst du beide gleich? Wenn ja, erstickst du die einen und verschwendest Ressourcen an die anderen.


Dimension 3 (Menschliche Tiefe): Wenn du morgen die KI abschaltest – verstehen deine Leute noch, was die Systeme tun und warum die Prozesse so gestaltet sind? Oder hast du eine Organisation gebaut, die ohne ihre technischen Prothesen nicht mehr laufen kann?


Wer auf alle drei Fragen ehrlich antwortet, hat seinen Startpunkt für architektonisches Denken. Wer sie überspringt, betreibt Aktionismus – und wird die Konsequenzen in zwei bis drei Jahren spüren.



Die eigentliche Frage

Jede Transformation hat drei Dimensionen, die gleichzeitig stimmen müssen. Die Architektur muss kohärent sein – von der Strategie bis zur Capability. Die Landschaft muss gelesen werden – welche Fähigkeiten entstehen, welche sich standardisieren, welche verschwinden. Und die Menschen müssen reif genug sein, um das Ganze zu tragen. Fehlt eine Dimension, scheitert das System – egal wie brillant die anderen beiden gestaltet sind.


Wer KI einführt, ohne diese drei Achsen zusammen zu denken, baut ein Haus ohne Fundament und wundert sich über die Risse in der Wand.


Die Eingangsfragen dieses Artikels lassen sich jetzt anders beantworten als mit Ja oder Nein. Wird KI Tätigkeiten ersetzen? Ja – aber nur dort, wo die Architektur es sinnvoll trägt. Wird sie Menschen überflüssig machen? Nein – aber sie wird sichtbar machen, wer Verantwortung übernehmen kann und wer sich hinter Routinen versteckt hat. Wird sie optimieren oder verdichten? Das entscheidet nicht die Technologie. Das entscheiden Führungskräfte, die den Mut haben, architektonisch zu denken statt aktionistisch zu handeln.


Und genau deshalb braucht KI Architektur, nicht Aktionismus.



Quellen

  1. Lyn Sören Matten, LinkedIn-Post zu KI und Softwareentwicklung, Februar 2026.
  2. Brinker, Scott: Martec's Law – Technology changes exponentially, organizations change logarithmically, 2013.
  3. Reuters/UBS: „ChatGPT sets record for fastest-growing user base – analyst note",  2023
  4. Visual Capitalist: „How Long it Took for Popular Apps to Reach 100 Million Users", 2023
  5. Lockwood, Tony: Transformation Leaders Body of Knowledge (TLBoK), 2024 Edition.
  6. Jevons, William Stanley: The Coal Question, 1865.
  7. Lesch, Marcel: LinkedIn-Post zum Jevons-Paradoxon und KI, 2026.
  8. Wegner, Matthias: „Von der Geschwindigkeit zur Verwurzelung", Kaleidoskopkultur, Januar 2026.
  9. Wegner, Matthias: Zeitlos Handeln – H.E.A.R. Arbeitsbuch, Kapitel VI.6.10, 2026 (noch nicht veröffentlicht)
  10. Kaiser, Susanne: Architecture for Flow – Adaptive Systems with DDD, Wardley Mapping, and Team Topologies, 2026.
  11. Toyoda, Akio: Zitiert in Dirk Fischer, LinkedIn-Post zu Geschwindigkeit und nachhaltigem Wachstum, Januar 2026.
  12. McKinsey & Company (2025): „The State of AI in 2025: Agents, Innovation, and Transformation". QuantumBlack, AI by McKinsey, November 2025.
  13. Livemint: Amazon delivery driver lands in water after following GPS directions, 2025.
  14. Dr. Li Blog: Technology Adoption Innovation Curves – Comprehensive Analysis.