Abstract
In der Schweiz ist die Adoption von KI, insbesondere generativer KI als Assistenzfunktion („EnterpriseGPT“), bereits vergleichsweise weit verbreitet. Gleichzeitig deutet die Evidenz darauf hin, dass der substanzielle Produktivitätssprung weniger aus dem reinen „Text-Copilot“-Paradigma entsteht, sondern aus agentischen Systemen: KI, die nicht nur Vorschläge formuliert, sondern Aufgaben end-to-end ausführt, über Tools handelt und der Mensch primär in eine Monitoring- und Governance-Rolle übergeht („human-on-the-loop“). Terminal-/Agent-Interfaces (z. B. Codex CLI/App, Claude Code, Copilot CLI) werden dabei häufig auf „Code-Generierung“ reduziert—tatsächlich markieren sie eine allgemeine Orchestrationsschicht für Wissensarbeit, sobald Dateizugriff, Tool-Connectoren und Sicherheitskontrollen hinreichend beherrscht werden. Der zentrale Engpass ist in vielen Organisationen semantischer Natur: Implizites Wissen, fragmentierte Dokumentation und fehlende Wissensmodelle begrenzen die Automatisierbarkeit. Vor diesem Hintergrund lässt sich 2026 plausibel als ein Jahr der „Wissens-Semantisierung“ interpretieren: als systematische Grundlagenarbeit an Daten, Dokumentenaktualität, Ontologien und Zugriffsschichten, ohne die agentische KI ihren Hebel nicht entfalten kann.
1. Standortbestimmung: Schweiz – solide Adoption, heterogene Reifegrade
Mehrere Erhebungen zeichnen ein Bild einer grundsätzlich hohen, aber in der Governance und Prozessintegration noch uneinheitlichen KI-Reife:
-
Eine IMD-Erhebung (Schweizer Stichprobe, Nov. 2023) berichtet 62% KI-Adoption in mindestens einer Business-Funktion; 30,6% nutzen KI über fünf oder mehr Funktionen hinweg. Gleichzeitig geben 52% an, dass in ihrer Organisation keine klaren internen KI-Richtlinien existieren.
-
Eine Schweizer Befragungsstudie zur Corporate Adoption von GenAI konstatiert: Viele Professionals nutzen GenAI regelmäßig (mehrheitlich mindestens wöchentlich), doch die organisatorische Einbettung bleibt limitiert; als Barrieren werden u. a. Erfahrungsmangel und Unsicherheit bezüglich Verlässlichkeit genannt.
-
Parallel dazu ist die Schweiz in internationalen Digital-Rankings weiterhin stark positioniert (IMD: Schweiz unter den führenden digitalen Volkswirtschaften). Das ist ein struktureller Vorteil für Skalierung—aber kein Ersatz für semantische und organisatorische Grundlagen.
Diese Befunde stützen die Arbeitshypothese: „EnterpriseGPT als Assistenz“ ist vielerorts angekommen; der Übergang zu agentischer Prozessarbeit ist dagegen vor allem durch Governance-, Wissens- und Integrationsdefizite gebremst.
2. Zwei Paradigmen: Assistenz (Copilot) vs. agentische Ausführung (Orchestrator-Modus)
Assistenz-KI optimiert primär die Erstellung von Artefakten (Text, Zusammenfassung, Ideation, Recherche). Wert entsteht durch Zeitgewinn in Mikro-Tasks.
Agentische KI verschiebt den Fokus auf Ausführung und Koordination:
Planen (Zerlegung in Teilaufgaben),
Handeln (Dateien ändern, Tickets aktualisieren, Daten abrufen),
Verifizieren (Tests, Plausibilitätschecks, Evals),
Übergeben (review-fähige Diffs/Outputs),
während der Mensch zunehmend Kontrollinstanz wird (Freigaben, Auditierbarkeit, Ausnahmebehandlung).
Dieses Muster ist nicht mehr theoretisch: Moderne Agent-Interfaces werden explizit als Orchestrations- bzw. „Command-Center“ für mehrere Agents beschrieben.
3. Warum „Terminal-Lösungen“ missverstanden werden
Der Begriff „Terminal“ erzeugt eine enge Assoziation: Entwickler, Code, Build-Pipelines. Das greift zu kurz. Terminal-/CLI-Produkte sind vor allem deshalb relevant, weil sie eine unmittelbare, automatisierungsnahe Schnittstelle bereitstellen: Dateisystem, Shell-Befehle, Repos, Artefakt-Builds, Logs – und zunehmend auch Business-Tools über Connectoren.
3.1 Beispiele: Codex, Claude Code, Copilot CLI (und der Trend zur Agent-Desktop-Arbeit)
-
OpenAI Codex wird als Interface positioniert, das mehrere Agents parallel koordiniert; zudem soll Codex über „Skills“ über Code-Generierung hinaus Aufgaben wie Informationssynthese, Schreiben und Workflow-Ausführung unterstützen.
-
Codex CLI ist als lokal ausführbarer Agent beschrieben, der Code lesen, ändern und ausführen kann; inkl. Governance-Konzepten (Approval-Modi, MCP-Erweiterungen).
-
Claude Code beschreibt den Kern explizit als „takes action“: Dateien bearbeiten, Commands ausführen, Commits erstellen; und über MCP z. B. Google-Drive-Dokumente lesen oder Jira-Tickets aktualisieren.
-
GitHub Copilot CLI bringt „Natural-Language-to-Terminal“ in den Alltag; auch hier ist das Ziel, Arbeitsausführung in der Kommandozeile zu beschleunigen.
-
Mit Cowork (Anthropic) wird dieses Prinzip in Richtung „Nicht-Entwickler“ übersetzt: Cowork läuft lokal, erhält Zugriff auf ausgewählte Dateien, plant, zerlegt Aufgaben und kann parallelisieren.
In Summe: Die Terminal-Metapher ist nicht das Ziel, sondern ein Hinweis auf Ausführungsfähigkeit („agency“) und Systemnähe. Sobald dieselbe Ausführungsfähigkeit auf Office-/PM-/Doku-Stacks erweitert wird, wird daraus eine generische Arbeitsorchestrations-Schicht.
4. MCP als Integrationskatalysator: Von Dateizugriff zu Tool-Ökosystemen
Ein zentrales Missing-Link-Argument Ihrer Hypothese ist die Interoperabilität zwischen LLM-Agenten und Business-Systemen. Hier ist der Model Context Protocol (MCP)-Ansatz wesentlich: MCP wird als offener Standard für sichere, bidirektionale Verbindungen zwischen Datenquellen/Tools und KI-Clients beschrieben.
Praktisch relevant ist, dass MCP nicht nur „Tool-Calling“ meint, sondern eine betriebsfähige Integrationslogik (Server/Clients, Berechtigungen, Konfigurations- und Policy-Punkte). Dass Anbieter wie Atlassian MCP-Server für Jira/Confluence in Richtung Claude-Ökosystem kommunizieren, zeigt die strategische Richtung: Wissensarbeit soll dort automatisierbar werden, wo Tickets, Doku und Entscheidungen entstehen.
5. Der Engpass ist semantisch: Implizites Wissen, Dokumentationslücken, fehlende Wissensmodelle
Warum sind Entwickler-Workflows oft früher automatisierbar als Business-Workflows? Ein wesentlicher Grund: Code ist bereits formalisiert, versioniert, testbar. Viele Business-Prozesse sind dagegen in tacit knowledge eingebettet: Kontext, Ausnahmen, implizite Regeln, informelle Absprachen.
Die Wissensmanagement-Literatur unterscheidet seit langem zwischen implizitem (tacit) und explizitem Wissen; organisatorische Leistungsfähigkeit hängt u. a. von der systematischen Externalisierung und Kombination ab.
Für agentische KI bedeutet das konkret: Ohne auffindbare, aktuelle, strukturierte Wissensartefakte kann ein Agent zwar „assistieren“, aber nur begrenzt „synthetisieren“.
Technisch wird diese Lücke häufig mit Retrieval- und Wissensschichten adressiert:
-
Retrieval-Augmented Generation (RAG) verbindet generative Modelle mit externer, zitierbarer Wissensbasis, um wissensintensive Aufgaben robuster zu lösen.
-
Neuere Arbeiten betonen zudem, dass Wissensgraphen Vertrauens- und Reliabilitätsprobleme in Enterprise-QA-Szenarien reduzieren können – insbesondere, wenn Nachvollziehbarkeit und Governance zentral sind.
Ihre These „AI benötigt Wissen, um Wissen zu entfalten“ lässt sich damit präzisieren: Agentische Automatisierung ist in hohem Maß eine Funktion der semantischen Infrastruktur (Dokumente, Ontologien, Metadaten, Versionierung, Zugriffspolitiken), nicht nur der Modellgüte.
6. Spezifisch für E-Health: Semantik, Interoperabilität und regulatorische Realität
Im E-Health-Kontext sind die Voraussetzungen besonders anspruchsvoll: sensitive Daten, hohe Compliance-Anforderungen, heterogene Systemlandschaften, und die Notwendigkeit semantischer Standards.
Die Schweiz arbeitet am elektronischen Patientendossier (EPD/EPR) weiter; für eine Release-Perspektive Richtung 2026 werden u. a. sichere und interoperable Betriebs- und Nutzungsszenarien adressiert, und mittelfristig wird ein Übergang in Richtung stärker standardbasierter Gesundheitsdaten-Architekturen (z. B. FHIR-basierte Ansätze) diskutiert.
Für agentische KI heißt das: Die eigentliche Wertschöpfung entsteht nicht durch „Chat über Dokumente“, sondern durch kontrollierte Prozessketten z. B. Vorbefüllung von Dokumentation, Kodierunterstützung, strukturierte Fallzusammenfassungen, Workflow-Orchestrierung—unter strenger Zugriffskontrolle und Auditierbarkeit.
Regulatorisch positioniert sich der Bund zugleich mit einem sektoralen Ansatz: Der Bundesrat hat eine Schweizer Regulierungsrichtung definiert (Innovation stärken, Grundrechte schützen, Vertrauen erhöhen; sektor-spezifische Anpassungen, ergänzt durch nicht-bindende Maßnahmen).
Diese Leitplanken sind relevant, weil agentische Systeme (mit Dateizugriff und Tool-Rechten) Governance-intensiver sind als reine Assistenz-Chats.
7. 2026 als „Jahr der Wissens-Semantisierung“: eine prüfbare Organisationshypothese
Ihre Schlussfolgerung lässt sich als Organisationshypothese operationalisieren: 2026 wird in vielen Schweizer Unternehmen zum Jahr, in dem man die Voraussetzungen schafft, damit Agent-Automation skalieren kann—insbesondere:
Dokumentaktualität als Produktionsfaktor: klare Ownership, Versionierung, „single source of truth“.
Semantische Schichten: Taxonomien/Ontologien, Metadatenstandards, Referenzdaten, Wissensgraph-/RAG-Fähigkeit.
Zugriffs- und Ausführungspolitiken: Berechtigungen, Approval-Modi, Protokollierung, „least privilege“ für Agent-Tools.
Connector-Governance (MCP/Tooling): freigegebene MCP-Server, Konfiguration, Monitoring, sichere Sandboxes.
Messung: E2E-KPIs (Durchlaufzeit, Fehlerquote, Audit-Findings, Rework-Rate) statt nur „Nutzung von Chat“.
Der Punkt „Dokumentation war früher ein nachrangiges Projektartefakt“ wird damit zu einer testbaren These: Organisationen, die Dokumente, Wissensmodelle und Prozessdaten früh priorisieren, sollten agentische Automatisierung schneller und sicherer skalieren können als Organisationen, die primär auf punktuelle Assistenz-Use-Cases setzen.
8. Fazit und Ausblick
Die Schweiz verfügt über gute strukturelle Voraussetzungen (Digitalkompetitivität, frühe Adoption in Funktionen).
Der nächste Produktivitätssprung ist jedoch weniger ein „noch besserer Chatbot“, sondern die agentische Orchestrierung realer Arbeit über Dateien, Tools und Workflows—mit dem Menschen als Monitor, Freigabestelle und Governance-Instanz. Terminal-/CLI-Systeme und Agent-Desktop-Produkte markieren diesen Übergang bereits heute; sie sind deshalb strategisch relevant, weil sie Ausführung, Parallelisierung und Integrationsfähigkeit in den Mittelpunkt stellen.
Der Engpass bleibt semantisch und organisatorisch: Ohne explizites, aktuelles, auffindbares Wissen und ohne kontrollierte Zugriffsschichten wird der „synthetische Mitarbeiter“ im Business deutlich langsamer real. Genau daraus lässt sich 2026 als Jahr der Grundlagenarbeit lesen—nicht als Hype-Etikett, sondern als Prioritätenverschiebung in Richtung Wissens- und Prozess-Industrialisation.
Wenn Sie möchten, kann ich als Folgebeitrag ein akademisches Referenzmodell (Maturity-Stufen, KPI-Set, Governance-Blueprint, E-Health-Use-Case-Cluster) erstellen, das Sie direkt als Serienstruktur für kommende Blogposts verwenden können.
* Erarbeitung mit AI gestützter Formattierung & Quellenredaktion

Hi, this is a comment.
To get started with moderating, editing, and deleting comments, please visit the Comments screen in the dashboard.
Commenter avatars come from Gravatar.