Lesezeit ca. 18 Min.

Gartner Hype Cycle: Technologien für die Welt von Morgen


Logo von Computerwoche
Computerwoche - epaper ⋅ Ausgabe 36/2022 vom 02.09.2022
Artikelbild für den Artikel "Gartner Hype Cycle: Technologien für die Welt von Morgen" aus der Ausgabe 36/2022 von Computerwoche. Dieses epaper sofort kaufen oder online lesen mit der Zeitschriften-Flatrate United Kiosk NEWS.

Bildquelle: Computerwoche, Ausgabe 36/2022

Melissa Davis, Vice President und Analystin bei Gartner, ist sich sicher: „Emerging Technologies bergen viel Transformationspotenzial für Unternehmen.“ Allerdings stünden CIOs und Technologieverantwortliche vor der Herausforderung, diese digitalen Fähigkeiten in ihren Unternehmen zu implementieren und zu skalieren. Angesichts der zunehmenden Ressourcenknappheit müssten sie dabei auch Nachhaltigkeitsaspekte im Blick haben.

Im aktuellen Hype Cycle for Emerging Technologies hat Gartner rund 2.000 Einzeltechnologien untersucht und diese 25 übergeordneten Technologien und Trends zugeordnet. Diese könnten Unternehmen in den nächsten Jahren fundamental verändern, so die Auguren. Betriebe könnten sich damit vom Wettbewerb absetzen und neue Wachstumsfelder erschließen, versprechen die Analysten.

„Es ist wichtig, dass sich die Betriebe nicht von dem Wirbel verrückt machen lassen, der rund um aufkommende ...

Weiterlesen
epaper-Einzelheft 10,99€
NEWS Jetzt gratis testen
Bereits gekauft?Anmelden & Lesen
Leseprobe: Abdruck mit freundlicher Genehmigung von Computerwoche. Alle Rechte vorbehalten.
Lesen Sie jetzt diesen Artikel und viele weitere spannende Reportagen, Interviews, Hintergrundberichte, Kommentare und mehr aus über 1000 Magazinen und Zeitungen. Mit der Zeitschriften-Flatrate NEWS von United Kiosk können Sie nicht nur in den aktuellen Ausgaben, sondern auch in Sonderheften und im umfassenden Archiv der Titel stöbern und nach Ihren Themen und Interessensgebieten suchen. Neben der großen Auswahl und dem einfachen Zugriff auf das aktuelle Wissen der Welt profitieren Sie unter anderem von diesen fünf Vorteilen:

  • Schwerpunkt auf deutschsprachige Magazine
  • Papier sparen & Umwelt schonen
  • Nur bei uns: Leselisten (wie Playlists)
  • Zertifizierte Sicherheit
  • Freundlicher Service
Erfahren Sie hier mehr über United Kiosk NEWS.

Mehr aus dieser Ausgabe

Titelbild der Ausgabe 36/2022 von Warum sich der Blick in die IT-Glaskugel lohnt. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Warum sich der Blick in die IT-Glaskugel lohnt
Titelbild der Ausgabe 36/2022 von Ex-Sicherheitschef erhebt Vorwürfe: „Twitter gefährdet die Demokratie!“. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Ex-Sicherheitschef erhebt Vorwürfe: „Twitter gefährdet die Demokratie!“
Titelbild der Ausgabe 36/2022 von Datenschützer klagen an: „Oracle ist eine weltweite Überwachungsmaschine“. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Datenschützer klagen an: „Oracle ist eine weltweite Überwachungsmaschine“
Titelbild der Ausgabe 36/2022 von Verzögerungen und geringere Einsparungen – ARD hat Probleme mit SAP-Projekt. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Verzögerungen und geringere Einsparungen – ARD hat Probleme mit SAP-Projekt
Mehr Lesetipps
Blättern im Magazin
Verzögerungen und geringere Einsparungen – ARD hat Probleme mit SAP-Projekt
Vorheriger Artikel
Verzögerungen und geringere Einsparungen – ARD hat Probleme mit SAP-Projekt
Public Cloud in Europa: US-Hyperscaler geben den Ton an
Nächster Artikel
Public Cloud in Europa: US-Hyperscaler geben den Ton an
Mehr Lesetipps

... Technologien immer wieder entsteht“, warnt Davis. Um den Wandel geordnet und in angemessenem Tempo anzugehen, sollten Firmen wettbewerbsdifferenzierende Entwicklungen in den Vordergrund rücken und das Augenmerk auf effizienzsteigernde Technologien richten. Einige Trends im Hype Cycle seien erst im Entstehen, ergänzt ihr Gartner-Kollege Gary Olliffe. Es bestehe noch Unsicherheit darüber, wie sie sich am Ende entwickeln würden. „Solche Technologien bergen Risiken für die Einführung, bieten frühen Anwendern aber auch potenziell die größeren Vorteile.“

Gartner hat drei Themenkomplexe definiert, in die sich die 25 Technologien eingruppieren lassen, die in diesem Jahr in den Hype Cycle aufgenommen wurden.

1. Immersive Experiences

Die Zukunft der digitalen Erfahrungen ist immersiv, sagt Gartner. Anwender würden immer tiefer und intensiver in digitale Welten eintauchen können, die Grenzen verschwimmen. Zu diesen Technologien gehören: Decentralized Identity (DCI) nutzt Blockchain oder andere Distributed-Ledger-Technologien (DLTs), um digitale Identitäten zu erstellen und zu kontrollieren. Wichtig wird das gerade für das Handling von digitalen Geldbörsen. DCI kommt ohne zentrale Vermittler oder Identitätsspeicher aus und bietet eine sichere Alternative zu zentralisierten Identity- und Access-Management-Lösungen. Der Vorteil: Der Ansatz schafft Vertrauen im Netz, da nicht mehr einzelne Dienstanbieter die Nutzerdaten horten, was zwangsläufig zu Datenschutzproblemen führt, wie häufige Einbrüche und Diebstähle der vergangenen Jahre gezeigt haben.

Derzeit ist aber die Fragmentierung noch ein Problem. Menschen haben diverse digitale Identitäten, mit denen sie Online-Angebote nutzen. Banken, Händler oder soziale Netzwerke verlangen von ihnen, für jeden Dienst eine eigene Identität zu erstellen. Fehlende Standards und mangelnde Interoperabilität sind die Ursachen für diese isolierten digitalen Identitäten. Allerdings sind derzeit Fortschritte zu beobachten. Gremien wie das World Wide Web Consortium (W3C), die Decentralized Identity Foundation sowie Regierungen und Behörden weltweit arbeiten an adäquaten Richtlinien. Anbieter wie IBM und Microsoft investieren in die Entwicklung entsprechender Technologien. Mit steigendem Komfort und mehr nützlichen Anwendungen werde die Akzeptanz auf Seiten der Konsumenten zunehmen, sagen die Gartner-Analysten.

Digitale Imitation eines Menschen

Digital Humans sind KI-gesteuerte agierende Abbildungen von Menschen, die mit ihrer Körpersprache und einer eigenen Diktion die Persönlichkeit, das Wissen und die Denkweise eines Menschen repräsentieren oder sogar imitieren. Sie verhalten sich „menschenähnlich“. Die Technik stand wie auch DCI schon im vergangenen Jahr auf dem Hype Cycle, kommt aber auf dem Weg zum Gipfel nur zögerlich voran. Gartner sieht in den digitalen Zwillingsdarstellungen von Menschen, die in der Regel als Avatare, humanoide Roboter oder konversationelle Benutzerschnittstellen (zum Beispiel Chatbots, Smart Speaker) dargestellt werden, auch eher eine langfristig angelegte Technologie, die erst in zehn Jahren konkrete Auswirkungen im Business zeigen werde. Unternehmen könnten mit solchen digitalen Menschen eine Reihe neuer Geschäftsmodelle entwickeln, sagen die Gartner-Fachkräfte. Anwendungsfälle sehen die Analysten etwa in den Bereichen Ausbildung und Training, Kommunikation, Kundenservice, medizinische Versorgung oder Marketing.

Mit der Technik seien Anwender nicht mehr auf den physischen Raum beschränkt. Sie könnten virtuell an mehreren Orten gleichzeitig agieren. Allerdings sei derzeit noch nicht absehbar, wie Konsumierende auf Digital Humans reagieren und mit ihnen interagieren werden. Gartner warnt vor Ressentiments und Ablehnung. Außerdem seien in diesem Zusammenhang auch noch regulatorische und ethische Fragen zu klären.

„Es ist wichtig, dass sich die Unternehmen nicht von dem Wirbel verrückt machen lassen, der rund um aufkommende Technologien entsteht.“

Melissa Davis, Vice President und Analystin bei Gartner

Der Digital Twin of a Customer (DToC) ist das virtuelle Abbild eines Kunden, das dessen Verhalten in bestimmten Situationen simulieren und vorhersagen soll. DToCs können bestimmte Konsumententypen, fiktive Personen, aber auch Maschinen sein. Unternehmen könnten sich mithilfe eines virtuellen Kunden besser auf das reale Verhalten ihrer Klientel einstellen, sagt Gartner. Die eigenen Angebote ließen sich optimal auf einzelne Kunden oder Kundengruppen zuschneiden. DToC wird als Ergänzung von Customer-Experience-(CX)-Lösungen gesehen und soll in erster Linie die Erfahrungen verbessern, die Konsumierende mit einem Produkt, einem Service oder einer Firma machen. Die Technik erfordert viel Know-how in Sachen KI und Machine Learning, da das Kundenverhalten von unterschiedlichen Faktoren und Parametern beeinflusst wird.

Außerdem müssen Nutzer sorgfältig und verantwortungsvoll mit der Technik umgehen, warnt Gartner. Nicht alle Kunden fänden die Vorstellung attraktiv, dass Unternehmen virtuelle Abbilder von ihnen produzieren, um ihr Verhalten zu simulieren.

Internal Talent Marketplaces (ITMs) funktionieren nach ähnlichen Prinzipien wie die so genannte Gig Economy: Auf einer Art Marktplatz bieten Menschen ihre Fähigkeiten oder Lösungen an, die dann von Auftraggebern geordert werden können. Auf einem firmeninternen Talentmarktplatz lassen sich die Skills der Beschäftigten erfassen und nach Bedarf bestimmten Projekten zuteilen. Solche Marktplätze schaffen Transparenz darüber, welche Fähigkeiten in der eigenen Belegschaft schlummern – und wo es Lücken gibt. Wichtig ist, die Daten und Informationen immer auf dem neuesten Stand zu halten. Gerade in den Pandemiejahren war das Thema Lernen und Weiterbildung wichtig. Die Skills vieler Mitarbeiterinnen und Mitarbeiter haben sich verändert. Hinzu kommt die gestiegene Fluktuation: Unternehmen verlieren an der einen Stelle Know-how und gewinnen es in anderen Bereichen hinzu. Laut Gartner kann ein Talentmarktplatz helfen, hier den Überblick zu behalten. Außerdem verändert sich der Blick auf die eigene Mannschaft. Es geht nicht mehr um Rollenbeschreibungen, sondern darum, welchen Beitrag einzelne Mitarbeitende leisten können. Dazu kommt, dass in Organisationen, die sich laufend verändern und im Sinne eines Composable Business immer wieder neu aufstellen, Arbeitskräfte flexibel verteilt und eingesetzt werden müssen.

Das Metaverse ist Gartner zufolge ein gemeinsam erlebbarer virtueller Raum, der durch die Konvergenz der virtuell erweiterten physikalischen Realität mit digitalen Welten entsteht. Das Metaverse ist beständig und bietet seinen Nutzern fortgeschrittene immersive Erfahrungen. Den Analysten zufolge werden die relevanten virtuellen Welten nicht von einzelnen Anbietern betrieben. Außerdem werden sie über eine Vielzahl von Endgeräten zugänglich sein. Gartner glaubt, dass eine eigene virtuelle Wirtschaftswelt entstehen wird, die auf Basis von digitalen Währungen und Non-Fungible Tokens (NFTs) funktioniert.

Mit dem Metaverse werde ein neues Level in der Interaktion zwischen realer und virtueller Welt erreicht, heißt es in dem Gartner-Bericht. Reale Aktivitäten ließen sich in den virtuellen Raum verlängern und dort erweitern oder transformieren. Für Unternehmen biete sich die Chance, ihr Business bis ins Metaverse auszudehnen und dort neue Geschäfte zu eröffnen. Bis es so weit ist, dürften allerdings noch einige Jahre ins Land gehen. Gartner warnt, dass die Technologien noch am Anfang stünden und die Entwicklungen fragmentiert verliefen. Momentan sei nicht absehbar, welche spezifischen Metaverse-Formen sich durchsetzen würden. Investitionen seien also immer mit einem hohen Risiko verbunden. Derzeit präsentiert sich das Metaverse als ein großer Experimentierbaukasten, mit dem verschiedene Player herumspielen. Es fehle zudem noch an Regeln für die virtuelle Welt, insbesondere was ethisches Verhalten und den Umgang mit Daten betreffe.

Bewusstsein für digitale Werte muss wachsen

Non-Fungible Tokens (NFTs) sind einzigartige auf der Blockchain-Technologie basierende, digitale Vermögenswerte. Sie lassen sich mit anderen digitalen Vermögenswerten wie Kunst oder Musik, aber auch mit physischen, ebenfalls mit Tokens versehenen Vermögenswerten wie Häusern oder Autos verknüpfen. Die meisten NFTs basieren derzeit auf Ethereum, aber auch andere Blockchain-Plattformen werden unterstützt. Die Technik, die sich im vorjährigen Hype Cycle auf dem Gipfel der überzogenen Erwartungen positioniert hatte, befindet sich 2022 auf dem Weg abwärts ins Tal der enttäuschten Erwartungen. Im Rahmen digitaler Ökosysteme lassen sich NFTs dazu verwenden, digitales Eigentum und damit verbundene Rechte nachzuweisen. Die Technik macht neue Geschäftsmodelle in virtuellen Welten möglich und sorgt für Vertrauen, weil die Blockchain-Technologie NFTs fälschungssicher macht. In vielen Märkten sind NFTs als Werte akzeptiert. Allerdings muss sich das gesellschaftliche Bewusstsein dafür, dass digitale Unikate einen Wert darstellen, erst noch in der Breite etablieren. Hinzu kommt, dass die Blockchain-Infrastrukturen in Sachen Interoperabilität noch nicht genügend ausgereift sind, um NFTs zum Durchbruch zu verhelfen.

Gartners Begriff der Superapps führt ein wenig in die Irre. Den Marktforschern zufolge handelt es sich dabei um Plattformen, über die sich Anwender nach Gusto diverse Micro-Apps zusammenstellen und integrieren können. Eine Superapp bildet das Frontend einer solchen Plattform. Je nach individueller Anforderung stellen sich User aus dem Angebot die eigene „App Experience“ zusammen. Superapps haben sich in China etabliert. WeChat von Tencent oder Alipay der Ant Group sind Gartner zufolge prominente Vertreter dieser Technik. Mittlerweile breiten sich Superapps auch in Südostasien, Indien und Südamerika aus. Vor allem Finanzdienstleister, Einzelhändler oder Telekommunikationsanbieter sehen in diesen Plattformen einen neuen Kanal, Kunden zu erreichen und für das eigene Angebot zu gewinnen. Unternehmen könnten per Superapp ihr eigenes Sortiment bündeln und über ein einheitliches User-Interface geordnet präsentieren, beschreiben die Analysten die Vorteile der Technik. Für die Kunden werde das Angebot übersichtlicher, die Customer Experience verbessere sich. Während Superapps technisch keine große Herausforderung darstellen, geht es für die Anbieter vor allem darum, Ordnung im eigenen App-Ökosystem zu schaffen. Das kann durchaus komplex werden – vor allem wenn viele Partner mit an Bord sind.

„Technologien, die gerade erst im Entstehen sind, bergen größere Risiken für die Einführung, aber auch potenziell größere Vorteile für frühe Anwender.“

Gary Olliffe, Vice President und Analyst bei Gartner

Web3 umfasst einen ganzen Technologie-Stack, mit dessen Hilfe sich verteilte Web-Applikationen entwickeln lassen. Der Vorteil der dezentralen, blockchainbasierten Architektur: Die User sollen die Kontrolle über ihre Identität und ihre Daten behalten. Außerdem lassen sich Geschäfte vertrauenswürdig und rechtssicher abschließen – Stichwort: Smart Contracts. Laut Gartner könnte sich im dezentralen Internet ein neuer Typ von Applikationen durchsetzen, der Anwenderunternehmen mehr Geschäftsmöglichkeiten eröffnet – gerade im Zusammenhang mit NFTs und dem Metaverse. Technisch müsse in Sachen Web3 allerdings noch nachgearbeitet werden. Gartner verweist auf Performance-Probleme, Defizite beim Governance- und Risk-Management sowie Entwicklungsbedarf bei den User-Interfaces. Dazu kommen Veränderungen im Mindset und der grundlegenden Anwendungsphilosophie. Zwar geht vor allem im Web der Trend hin zu dezentralen Anwendungen. Aber die großen Unternehmen werden die Kontrolle über ihre Business Applikationen nur ungern aufgeben wollen. Gartner geht davon aus, dass Web 2.0 noch bis mindestens 2030 und vielleicht darüber hinaus die Basis für die Entwicklung der meisten Business-Anwendungen bleiben wird.

2. Mehr Speed bei KI-Automatisierung

Als weiteres Zukunftsthema haben die Gartner-Analysten eine beschleunigte KI-Automatisierung ausgemacht. Dazu gehören:

Autonomic Systems sind sich selbst verwaltende physische Softwaresysteme, die eigenständig bestimmte Aufgaben ausführen können. Drei grundlegende Merkmale charakterisieren diese Systeme:

Autonomie: Sie treffen ihre eigenen Entscheidungen und führen Aufgaben ohne externe Hilfe aus.

Lernen: Sie können ihr Verhalten und ihre internen Abläufe aufgrund von Erfahrungen, veränderten Rahmenbedingungen oder Zielen ändern.

Handlungsfähigkeit: Sie haben ein Gefühl für ihren eigenen internen Zustand sowie ihr Ziel, das sie leitet, und dafür, wie und was sie lernen müssen, um unabhängig handeln zu können.

Autonome Systeme ermöglichen ein hohes Maß an geschäftlicher Anpassungsfähigkeit, Flexibilität und Agilität, das sich mit herkömmlichen KI-Techniken allein nicht erreichen lässt. Gerade weil Systeme immer komplexer werden und Betriebsumgebungen unbekannt oder zumindest schwer vorhersehbar sind, wird eine Überwachung und Kontrolle in Echtzeit zunehmend schwieriger. Während KI-gestützte Automatisierung für bestimmte bekannte Rahmenparameter bereits gelernt wurde, stehen autonome Systeme noch ganz am Anfang. Gerade weil Verhalten und Entscheidungen nicht vorhersagbar sind, dürfte es manchmal schwer werden, diese Systeme zu verstehen. Darunter könnte die Akzeptanz leiden, wenn menschliche Einfluss- und Kontrollmöglichkeiten schwinden.

Nur eine Frage von Ursache und Wirkung

Causal AI ist ebenfalls eine Technik, die zu mehr Autonomie im KI-Einsatz führen soll. Kausale künstliche Intelligenz (KI) identifiziert und nutzt Ursache-Wirkungs-Beziehungen, die über korrelationsbasierte Vorhersagemodelle hinausgehen. Derartige KI-Systeme sollen Handlungen genauer beschreiben und daher autonomer handeln können. Die Technik könne kausale Zusammenhänge aufdecken und so die Entscheidungsfindung verbessern, heißt es. Klassisches Machine Learning (ML) trifft Vorhersagen auf der Grundlage statistischer Beziehungen (Korrelationen), unabhängig davon, ob diese kausal begründet sind.

Das ist Gartner zufolge allerdings nicht dasselbe wie das Verständnis der Ursachen und Auswirkungen sowie der Möglichkeiten, den Output zu verbessern. Kausale KI soll Ergebnisse besser vorhersagen können. Das werde die Technik autonomer, erklärbarer, robuster und effizienter machen, so die Analysten. Das Problem: Kausale Zusammenhänge zu erkennen, ist nicht trivial. Wenn schon Menschen daran scheitern, dürfte es schwer werden, diese Fähigkeit einer Maschine beizubringen. Der Erfolg dieser Technik dürfte – wie eigentlich immer in der KI – von der Qualität der zugrundeliegenden Daten abhängen.

Foundation Models stehen in Gartners Hype Cycle kurz vor dem Gipfel der überzogenen Erwartungen. Dabei handelt es sich um grundlegende KI-Modelle, deren Architektur auf weit verzweigten neuronalen Netzwerken basiert. Dazu gehören beispielsweise Sprachmodelle, die anhand von bestimmten Wörtern Text generieren können, oder Natural-Language-Processing(NLP)-Techniken. Foundation Models sind dadurch charakterisiert, dass sie auf Basis ihres Trainings eine breite Palette unterschiedlicher Anwendungsmöglichkeiten eröffnen. Aus Sicht der Analysten von Gartner bedeuten diese Modelle einen wichtigen Schritt in der KI-Entwicklung.

Die zugrunde liegende Modellarchitektur findet in immer mehr Bereichen Anwendung, zum Beispiel in Computer Vision, Audioanwendungen, Softwareengineering, im Finanzwesen und juristischen Use Cases. Die Modelle sind in aller Regel so gut vortrainiert, dass sie vor dem Einsatz nur noch geringe Konfigurationsarbeiten erfordern. Gartner warnt dennoch: Trotz allen Trainings könnten Foundation Models falsche Ergebnisse liefern, wenn sie mit schlechten Daten gefüttert werden.

Alles dreht sich um die Experience

Generative-Design-AI beziehungsweise KIunterstütztes Design, wie Gartner die Technik im letztjährigen Hype Cycle nannte, beschreibt ein Set von Technologien aus KI, Machine Learning (ML) und der Verarbeitung natürlicher Sprache (NLP), um weitgehend automatisch Bildschirmdesigns, User-Interfaces, Inhalte, Präsentationsschichten und Bedien-Flows von digitalen Produkten zu generieren. Einsatzgebiete sind Gartner zufolge Werkzeuge für das User-Experience(UX)-Design, Low-Code/No-Code und Citizen-Design-Tools. Generative-Design-AI werde sich schnell von einem Unterstützungstool auf Funktionsebene – zum Beispiel für intelligente Design-Empfehlungen – zu einem vollständigen digitalen Produktdesign- und Entwicklungswerkzeug weiterentwickeln. Websites, Anwendungen und Software ließen sich damit in Minuten oder Tagen statt in Wochen oder Monaten entwickeln, prognostizieren die Analysten und sprechen von großen Sprüngen in Bezug auf Effizienz, Qualität und Markteinführungszeit. Abzuwarten bleibe allerdings, ob Originalität und Kreativität gewährleistet seien, wenn statt Menschen Softwaretools, die alle mehr oder weniger auf der gleichen Datenbasis funktionieren, Designs und Oberflächen bauen. Auswirken wird sich die Technik auf den Jobmarkt. UX-Entwickler dürften weniger gefragt sein. Diese hätten dann die Aufgabe, die Designbots anzulernen und mit Ideen zu füttern.

Risiken eingehen?

Neu aufkommende innovative Technologien haben oft einen disruptiven Charakter. Wie stark sie die Spielregeln in den Märkten ändern, muss sich allerdings erst zeigen – Fehleinschätzungen sind hier an der Tagesordnung. Oft zeigt sich der Wettbewerbsvorteil, den sich Anwenderunternehmen von ihrem Engagement versprechen, nicht immer. Für die Betriebe stellt es also ein Risiko dar, in besagte Technologien zu investieren – aber es zu unterlassen, kann im schlimmsten Fall noch viel teurer werden. Bei den meisten Technologien im neuen Gartner Hype Cycle wird es fünf bis zehn Jahre dauern, bis absehbar ist, was sie für das Business bringen. Bei einigen könnte das schon früher der Fall sein, in zwei bis fünf Jahren. Dazu zählt Gartner: Non-Fungible Tokens (NFTs) und Cloud Data Ecosystems, die beide bereits den Gipfel der überzogenen Erwartungen überschritten haben. Auf dem Weg dorthin befinden sich Open Telemetry, Cloud Sustainability und Dynamic-Risk-Management. Auch diesen Technologien sagt Gartner eine zügige Entwicklung voraus. Bei anderen Technologien könnte es indes mehr als zehn Jahre dauern, bis klar ist, ob sie überhaupt jemals das Plateau der Produktivität erreichen. Dazu rechnen die Analysten Cybersecurity Mesh Architectures, das Metaverse und Digital Humans.

Machine Learning Code Generation zielt in eine ähnliche Richtung wie Generative-Design-AI. Nur geht es nicht um die Entwicklung von Design-Code. Die Technologie besteht im Wesentlichen aus Tools, um weitgehend automatisiert Anwendungscode mit Hilfe von ML zu generieren. Die in der Cloud gehosteten ML-Modelle sollen sich direkt in die Developer-Frameworks professioneller Entwickler integrieren lassen. Diese Erweiterungen schlagen Code vor, der entweder auf Beschreibungen in natürlicher Sprache oder bereits vorhandenen Codefragmenten basiert.

Der von ML-Modellen generierte Anwendungscode könne die Produktivität von Entwicklern verbessern, prognostiziert Gartner. Sie müssten dazu ihre gewohnten Entwicklungsumgebungen nicht verlassen. Codezeilen würden automatisch per ML-Modell generiert. Entwickler müssten sie nur noch überprüfen und gegebenenfalls anpassen. Gartner zufolge wird diese Technik Entwickler nicht ersetzen, ihre Arbeit aber deutlich erleichtern und beschleunigen. Allerdings, so warnen die Analysten, sei ML-generierter Softwarecode nicht automatisch fehlerfrei und könne genauso wie von Menschen generierter Code Sicherheitslücken aufweisen. Auch eine gewisse Abhängigkeit der Entwickler von den jeweiligen ML-Modellen dürfe nicht vernachlässigt werden.

3. Bessere Unterstützung für Innovation

Erfolgreiche digitale Unternehmen werden aufgebaut, nicht gekauft, lautet das Credo der Gartner-Analysten. Das Gros der Technologien im neuen Hype Cycle konzentriert sich deshalb darauf, Entwicklern und Technikern unter die Arme zu greifen, die an neuen Produkten, Services und Lösungen bauen. Die entscheidenden Technologien, die an dieser Stelle greifen könnten, sind:

Augmented FinOps: Sie sollen die Finanz- und Budgetplanung von Unternehmen optimieren. Für FinOps werden traditionelle DevOps-Konzepte wie Agilität und die kontinuierliche Integration von Endbenutzer-Feedback über-nommen. Augmented FinOps bedeutet, dass die Prozesse rund um Finanzverwaltung, Budgetierung und Kostenoptimierung weitgehend automatisiert werden – mithilfe von Anwendungen für Künstliche Intelligenz (KI) und Machine Learning (ML). Das Ziel: Kosten automatisch und laufend auf der Grundlage zuvor definierter Geschäftsziele optimieren. Da Workloads zunehmend in die Cloud verlagert werden, gibt es prinzipiell mehr Kostentransparenz. So sei es möglich, den Aufwand für bestimmte Workloads, die einem Projekt zugeordnet sind, monetär zu bewerten. Allerdings macht es die Komplexität und Vielfalt der zugrunde liegenden Cloud-Infrastruktur und Serviceangebote oft schwierig, ein optimales Preis-Leistungs-Verhältnis zu erzielen. Augmented FinOps soll diesen Prozess durch Anwendung von KI/ML-Techniken automatisieren. Anwender sollen im Idealfall per Spracheingabe Rahmenparameter vorgeben und das System optimiert entsprechend die Cloud-Infrastruktur. Damit ließen sich Ressourcen effizienter nutzen und Kosten einsparen, beschreibt Gartner die Vorteile.

Cloud Data Ecosystems sind die im aktuellen Hype Cycle am weitesten fortgeschrittene Technologie – auch wenn hier gerade die Phase der Desillusionierung begonnen hat. Cloud Data Ecosystems sollen Unternehmen in allen Aspekten der Datenverwaltung unterstützen – bis hin zu Data Science und Data Warehousing. Das beinhaltet neben den eigenen Datenquellen auch Drittanbieter, die an dem Ökosystem partizipieren. Zu den Funktionen gehören unter anderem ein gemeinsames Governanceund Metadatenmanagement, ein einheitliches Zugriffsmanagement sowie integrierte Verwaltungs- und Analyse-Features. Mit der stärkeren Nutzung der Cloud, steigt Gartner zufolge der Integrationsaufwand – gerade was das Handling von Daten betrifft. Die von Cloud Service Providern (CSPs) und Softwareanbietern bereitgestellten Ökosysteme sollen die Anwender mit weitgehend vorkonfigurierten Plattformen von dieser Integrationsarbeit entlasten. Allerdings, so mahnen die Analysten, gilt es dabei auf Offenheit zu achten. Anwender sollten sich nicht in die Abhängigkeit einzelner Anbieter begeben.

Mit der Cloud zu nachhaltigeren Geschäften

Cloud Sustainability soll Anwenderunternehmen helfen, durch den vermehrten Einsatz von Cloud-Diensten die eigenen Nachhaltigkeitsziele zu erreichen. Das bezieht die wirtschaftlichen, ökologischen und sozialen Systeme eines Unternehmens wie auch die Cloud-Dienste selbst mit ein. Gerade die Public Cloud bietet Gartner zufolge großes Potenzial, IT-Ressourcen durch ein Shared-Service-Modell effizienter zu nutzen. Das zahle sich für die Nachhaltigkeitsziele aus, indem alte Data Center abgeschaltet und die entsprechenden Workloads in die Cloud verlagert werden könnten.

Vor dem Hintergrund des Klimawandels wächst seitens der Mitarbeitenden, Kunden, Investoren und Behörden der Druck auf die Unternehmen, ökologisch sinnvoll zu wirtschaften. Allerdings ist es noch schwierig, die entsprechenden Kennzahlen zu erheben und zu prüfen, da die Standards hierfür fehlen.

Mit Computational Storage (CS) entwickelt sich derzeit eine neue Klasse von Speichergeräten, die einen Teil der Verarbeitung von Daten weg vom Hauptspeicher der Rechner direkt in das Storage-System verlagert. Dafür werden zusätzliche Chips wie Field Programmable Gate Arrays (FPGAs) und Application Specific Integrated Circuits (ASICs) in Devices wie Solid State Drives (SSDs) integriert. Gerade dezentral angelegte Konzepte wie Edge Computing erfordern es, Daten direkt am Entstehungsort zu verarbeiten. Dafür braucht es allerdings eine entsprechende Rechenleistung vor Ort. Mit Hilfe von CS lasse sich die Leistung im Gesamtsystem verbessern sowie der Stromverbrauch und die Verarbeitungszeit reduzieren. Allerdings müssten die Applikationen erst noch auf die Nutzung von CS angepasst werden.

Verteilte Sicherheit – bessere Sicherheit?

Eine Cybersecurity Mesh Architecture (CSMA) zeichnet sich im Gartner Hype Cycle erst in weiter Ferne ab. Die Auguren verstehen darunter einen neuen Ansatz für verteilte Sicherheitskontrollen, was die Gesamtsicherheit von Systemen verbessern soll. Rund um zentral gesteuerte Richtlinien und Security-Operationen sollen Anwenderunternehmen ihre Sicherheitsarchitektur passgenau auf ihre individuellen Anforderungen hin, aus einzelnen Komponenten, zusammenstellen können. Gartner zufolge gibt es zwar jede Menge Security-Lösungen am Markt. Das Problem liege jedoch in der Bereitstellung und im Betrieb. Die Einzellösungen seien meist nur unzureichend untereinander verbunden und integriert. Hier soll die CSMA ansetzen. Auf Basis einer zentralen Richtlinienverwaltung und mithilfe von Bedrohungsdatenbanken soll sich ein koordinierter Ansatz entwickeln lassen, um Angriffe besser erkennen und bekämpfen zu können. Damit soll sich die zunehmende Komplexität von Security-Architekturen, die zudem anfälliger für Sicherheitslücken sind, reduzieren lassen. Ein verteilter Ansatz brauche jedoch Offenheit, mahnen die Analysten. Entstehen Abhängigkeiten von einzelnen Anbietern, würden sich erneut Lücken auftun. Ein weiteres Problem: Derzeit gibt es noch kein komplettes Angebot für eine CSMA auf dem Markt.

Alles fließt – vor allem die Daten

Data Observability ist für Gartner die Fähigkeit einer Organisation, die Qualität ihrer Datenlandschaft, Daten-Pipelines sowie der gesamten Dateninfrastruktur richtig einschätzen zu können. Das bedeutet ein kontinuierliches Monitoring der Datenflüsse, um Fehler und Staus rechtzeitig zu beheben. Dabei geht es nicht nur darum zu erkennen, was schiefgeht, sondern auch darum, die Frage nach dem Warum beantworten zu können. Data Observability soll das Daten-Handling in den Unternehmen insgesamt verbessern. Dafür müssen die Verantwortlichen allerdings wissen, wie die einzelnen Teile der Daten-Pipelines zusammenhängen und miteinander funktionieren. Es gilt verschiedenste Aspekte im Blick zu behalten – von der Datenqualität bis zu den Business-Anforderungen. Gartner zufolge müssen an dieser Stelle technische und organisatorische Fragen beantwortet werden. Tools gebe es viele auf dem Markt. Allerdings würden die Datenlandschaften in den Unternehmen auch immer komplizierter.

Dynamic Risk Governance (DRG) verspricht Unternehmen, ihr Risikomanagement insgesamt besser aufzustellen. Statt starr bestimmte Rollen und Verteidigungslinien zu definieren, orientiert sich das Risk Management stärker an der Geschäftsstrategie. Das System soll sich modular und flexibel hinsichtlich der Risiken ausrichten lassen. Die Krisen der vergangenen Jahre hätten Gartner zufolge gezeigt, wie wichtig ein gutes Risikomanagement für Unternehmen sei. Allerdings werde es auch immer schwerer, Risiken richtig abzuschätzen und einzuordnen. Die einzelnen Faktoren hingen zu eng miteinander zusammen, als dass sie sich isoliert voneinander passend bewerten ließen. DRG biete dafür eine Methode, das Risk Management ganzheitlich zu betrachten, statt sich im Stückwerk zu verlieren, und einer gewissen Versicherungsmüdigkeit entgegenzuwirken. Es gehe schließlich auch darum, gewisse Risiken in der Geschäftsstrategie zu tolerieren und nicht alle Ideen von vornherein abzuwürgen, nur weil damit auch gewisse Risiken verbunden seien.

IaaS, PaaS, SaaS – Grenzen verschwimmen

Industry Cloud Platforms bieten IaaS, PaaS und SaaS als kombinierte Gesamtpakete an, die auf bestimmte vertikale Branchen zugeschnitten sind. Diese Cloud-Plattformen zielen darauf ab, alle funktionalen, rechtlichen sowie technischen Anforderungen und Anwendungsfälle von bestimmten Branchen zu erfüllen. Für die Anwenderunternehmen sinke damit der Aufwand, sich ihre Cloud-Umgebungen aus verschiedenen Komponenten selbst zusammenstellen zu müssen. Für die Kunden gehe es damit in erster Linie um die Gesamtlösung. Gartner zufolge verschwimmen damit die Grenzen zwischen den einzelnen Cloud-Disziplinen IaaS, PaaS und SaaS. Um ihr ganzes Potenzial zu entfalten, müssten diese Industry Cloud Platforms aber offenbleiben und sich zu Ökosystem-Clouds weiterentwickeln, in die sich je nach Bedarf auch weitere Anbieter mit einklinken könnten.

Produktentwicklung beschleunigen

Eine Minimum Viable Architecture (MVA) ist ein Framework, das Teams benötigen, um Produkte entsprechend den Termin- und Anforderungsvorgaben ihres Unternehmens entwickeln zu können. Gartner zufolge handelt es sich dabei um ein Minimalset an Tools und Lösungen, um möglichst optimale Resultate zu erzielen. Wichtig dabei: Die MVA ist von ihren Komponenten her derart flexibel aufgestellt, dass sie sich je nach veränderten Anforderungen, im Sinne einer agilen Produktentwicklung, zügig neu zusammenstellen lässt.

Eine derartige Architektur ist niemals starr. Sie verändert sich im Zuge einer interaktiven Produktentwicklung laufend. Der Vorteil: Mithilfe von MVAs können sich Unternehmen kundenzentrierter aufstellen. Allerdings sind Entscheidungsprozesse gerade in sich immer wieder neu orientierenden Teams teilweise schwierig und wollen mit sensibler Hand moderiert werden.

Bei Observability-Driven Development (ODD) handelt es sich um eine Entwicklungsmethode für Softwarecode, die genaue Einblicke in die verschiedenen internen Zustände des Gesamtsystems zulassen soll. ODD ermöglicht es Softwareingenieuren und Produktverantwortlichen zu verstehen, wie die Software funktioniert und wie sie genutzt wird. Die Methode erleichtere es, Systemanomalien frühzeitig im Entwicklungsprozess zu diagnostizieren und zu beheben. Die verbesserte Transparenz und Beobachtbarkeit des Codes helfen dabei, Fehler aufzuspüren. Auch andere Resilience-Engineering-Praktiken wie Site Reliability Engineering (SRE) und Chaos-Engineering könnten von ODD profitieren, sagen die Gartner-Analysten. Allerdings stecken die Werkzeuge und Praktiken für ODD noch in einem sehr frühen Stadium der Entwicklung.

Besser verstehen, wie Software funktioniert

Open Telemetry zielt in eine ähnliche Richtung wie ODD. Gartner versteht darunter eine Kollektion aus Spezifikationen, Tools, Schnittstellen und Software Development Kits (SDKs). Ziel des quelloffenen Software-Instrumentenkastens sind bessere Einblicke darüber, wie eine Applikation funktioniert. Die von der Cloud Native Computing Foundation (CNCF) kuratierte Initiative definiert drei Arten der Telemetrie – verteilte Spuren, Metriken und Logs.

Diese Telemetriedaten sollen Aufschlüsse über den Zustand und die Leistung von Anwendungen erlauben. Die Technik könnte das Application Performance Monitoring (APM) grundlegend verändern, glaubt Gartner. Schon im Anfangsstadium hat Open Telemetry eine breite Unterstützung und Akzeptanz gefunden. Viele Anbieter von APM-Lösungen, Public-Cloud-Services und Observability-Tools haben ihre Unterstützung bekundet.

Als Platform Engineering beschreibt Gartner den Aufbau und Betrieb von Selfservice-Entwicklerplattformen (Independent Development Platforms = IDPs). Jede Plattform bildet eine Schicht, die von einem speziellen Produktteam gepflegt wird. Dabei geht es darum, die Bedürfnisse von Softwareentwicklern bestmöglich zu unterstützen, indem die Plattform eine Schnittstelle zu Tools und Prozessen bildet. Das Ziel des Platform-Engineering ist es, die Developer Experience zu optimieren und die Arbeit der Produktteams zu beschleunigen.

Das wird wichtiger, weil Unternehmen heute zügig auf sich ändernde Kundenanforderungen reagieren müssen. Angesichts der zunehmend komplexeren Softwaresysteme ist das nicht trivial, zumal Entwickler viele plattformbezogene Aufgaben erledigen müssen, statt sich auf die Entwicklung neuer Funktionen konzentrieren zu können. Platform Engineering entlastet die Teams vom Aufbau und der Wartung der zugrunde liegenden Infrastruktur und gibt ihnen mehr Zeit, sich auf den Kundennutzen zu konzentrieren. Software lässt sich so schneller bereitstellen. Außerdem verbessert sich die Experience der Entwickler. Das wirkt Frustration und Fluktuation entgegen.