Lesezeit ca. 7 Min.

Das bieten KI-Lösungen aus der Public Cloud


Logo von Computerwoche
Computerwoche - epaper ⋅ Ausgabe 4/2022 vom 21.01.2022

Vor allem die drei Hyperscaler Amazon Web Services (AWS), Microsoft Azure und Google Cloud Platform (GCP) sind daran interessiert, dass Entwickler und Data Scientists Modelle für Machine Learning in ihren Cloud-Umgebungen entwickeln, testen und einsetzen. Das ist lukrativ, denn Testmodelle benötigen oft jede Menge kostenpflichtige Infrastrukturressourcen wie Computerpower und Storage. Außerdem sind diese Modelle auf eine hohe Verfügbarkeit angewiesen.

Die Cloud-Anbieter unternehmen derzeit eine Menge, um ihren Kunden die Nutzung der Machine-Learning-Funktionen zu erleichtern. Jede der drei Public Clouds bietet eine Reihe von Optionen für die Datenspeicherung, darunter Serverless-Datenbanken, Data Warehouses, Data Lakes und NoSQL-Datenspeicher.

So können Anwender ihre Modelle in unmittelbarer Nähe zum Speicherort ihrer Daten entwerfen.

Was AWS, Microsoft und Google bieten

Zudem bieten die ...

Artikelbild für den Artikel "Das bieten KI-Lösungen aus der Public Cloud" aus der Ausgabe 4/2022 von Computerwoche. Dieses epaper sofort kaufen oder online lesen mit der Zeitschriften-Flatrate United Kiosk NEWS.
Drei von vier KI-Projekten werden heute in Hybrid-Cloud-Umgebungen umgesetzt. Red-Hat-Studie
Weiterlesen
epaper-Einzelheft 10,99€
NEWS Jetzt gratis testen
Bereits gekauft?Anmelden & Lesen
Leseprobe: Abdruck mit freundlicher Genehmigung von Computerwoche. Alle Rechte vorbehalten.
Lesen Sie jetzt diesen Artikel und viele weitere spannende Reportagen, Interviews, Hintergrundberichte, Kommentare und mehr aus über 1000 Magazinen und Zeitungen. Mit der Zeitschriften-Flatrate NEWS von United Kiosk können Sie nicht nur in den aktuellen Ausgaben, sondern auch in Sonderheften und im umfassenden Archiv der Titel stöbern und nach Ihren Themen und Interessensgebieten suchen. Neben der großen Auswahl und dem einfachen Zugriff auf das aktuelle Wissen der Welt profitieren Sie unter anderem von diesen fünf Vorteilen:

  • Schwerpunkt auf deutschsprachige Magazine
  • Papier sparen & Umwelt schonen
  • Nur bei uns: Leselisten (wie Playlists)
  • Zertifizierte Sicherheit
  • Freundlicher Service
Erfahren Sie hier mehr über United Kiosk NEWS.

Mehr aus dieser Ausgabe

Titelbild der Ausgabe 4/2022 von Dem deutschen ITK-Markt fehlt die Dynamik. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Dem deutschen ITK-Markt fehlt die Dynamik
Titelbild der Ausgabe 4/2022 von Europol verstößt gegen Datenschutzgesetze. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Europol verstößt gegen Datenschutzgesetze
Titelbild der Ausgabe 4/2022 von Neues Kaufrecht 2022: Updatepflicht beschäftigt IT-Anbieter. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Neues Kaufrecht 2022: Updatepflicht beschäftigt IT-Anbieter
Titelbild der Ausgabe 4/2022 von Log4j-Sicherheitslücke: Was Gartner nun empfiehlt. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Log4j-Sicherheitslücke: Was Gartner nun empfiehlt
Mehr Lesetipps
Blättern im Magazin
Bitkom-Prognose 2022: Digitalindex im Sinkflug
Vorheriger Artikel
Bitkom-Prognose 2022: Digitalindex im Sinkflug
Texterkennung in der Cloud: So helfen die Hyperscaler beim Automatisieren
Nächster Artikel
Texterkennung in der Cloud: So helfen die Hyperscaler beim Automatisieren
Mehr Lesetipps

... Cloud-Provider inzwischen weit verbreitete Frameworks für maschinelles Lernen an, insbesondere Tensorflow und Pytorch. Damit werden ihre Cloud-Umgebungen für Data-Science-Teams zu One-Stop-Shops. Alle drei bieten zudem ModelOps, MLOps und eine wachsende Anzahl von Funktionen zur Unterstützung des gesamten Lifecycles von maschinellem Lernen.

Wollen die Anbieter hier Erfolg haben, werden sie weiterhin mit neuen und differenzierenden Funktionen innovieren müssen.

Diese Innovationen umfassen verschiedene Bereiche. Meistens geht es darum, Unternehmen dabei zu unterstützen, Machine Learning zu skalieren und in großen Dimensionen mit vielen Services und benutzerfreundlichen Plattformen umzusetzen. Hier sind einige Einzelheiten.

Auf die KI-Chips kommt es an

Je mehr Unternehmen experimentieren und je größer und komplexer die ML-Modelle werden, desto wichtiger wird es, dass die Modelle auf sehr großen Datenmengen trainiert werden können. Microsoft und der Chipproduzent Nvidia kündigten kürzlich Megatron (MT-NLG) an, einen Prozessor für die Verarbeitung natürlicher Sprache mit 530 Milliarden Parametern, während Google nach eigenen Angaben mit Switch Transformer ein Modell mit 1,6 Billionen Parametern trainiert hat.

Das Trainieren von Modellen dieser Größe und Komplexität kann lange dauern und teuer werden, weshalb die Public-Cloud-Betreiber alles daransetzen, den Aufwand mit neuen KI-Chips und Infrastrukturinnovationen zu reduzieren. AWS hat erst vor wenigen Tagen den Inferentia- Prozessor angekündigt und vor ungefähr einem Jahr den ML-Training-Chip Trainium. Zudem hat AWS neue EC2-DL1-Instanzen angesagt, die für das Trainieren von ML-Modellen optimiert sind und von den „Gaud“-Beschleunigern der Intel-Tochter Habana Labs angetrieben werden. Im Vergleich zu den neuesten GPU-getriebenen EC2-Instanzen sollen sie ein um 40 Prozent besseres Preis-Leistungs-Verhältnis bieten.

Auch Google war nicht untätig und kündigte Anfang 2021 auf der Google I/O die vierte Generation der Tensor Processor Units an (TPU v4).

Für typische Workloads wie Objekterkennung, Bildklassifizierung, Natural Language Processing, maschinelle Übersetzung oder Empfehlungs-Benchmarks liege die durchschnittliche Verbesserung der Leistung beim 2,7-Fachen gegenüber TPU v3. Weitere Hardware-Innovationen mit KI-Chips und Beschleunigern sind auch von anderen Spezialisten zu erwarten, etwa von Cerebras, Graphcore, Sambanova und natürlich Nvidia.

Doch bei KI-fähigen Infrastrukturen geht es nicht nur um leistungsstarke Chips: Alle drei Public Clouds verfügen auch über Edge-Computing-Plattformen, die das Bereitstellen von ML-Modellen für das Internet of Things (IoT) und für Streaming-Anwendungen erleichtern.

Kampf der KI-Dienste

Die meisten Data-Science-Teams interessieren sich derzeit weniger für massiv-skalierende KI- Systeme als für das Entwickeln und Konfigurieren von Advanced-ML-Modellen. Alle drei Cloud-Anbieter entwickeln dafür ML-Services und in den kommenden Jahren werden diese Aktivitäten wohl erheblich zunehmen. Hier ein kurzer Überblick über die ML-Dienste, die auf Azure, GCP und AWS angeboten werden:

Microsofts Cognitive Services bieten Sprachdienste, Möglichkeiten für Sentiment-Analysen sowie Frage- und Antwortservices, wie sie häufig in Chatbots genutzt werden. Hinzu kommen Dienste rund um die Bildverarbeitung, allen voran Gesichtserkennung. Außerdem bietet Microsoft Services für die Entscheidungsunterstützung. Sie lassen sich beispielsweise für Projekte im Bereich der Personalisierung oder der automatisierten Erkennung von Anomalien verwenden.

Microsoft hat vor kurzem zudem einen Dienst für OpenAI angekündigt, dem Unternehmen, das 2020 mit seinem GPT-3-Modell für die Erkennung natürlicher Sprache einen großen Durchbruch feiern konnte. Mit Microsofts Azure OpenAI Service sollen Kunden in die Lage versetzt werden, Enterprise fähige Sprachlösungen zu erstellen. Die Palette reicht vom automatisierten Zusammenfassen langer Texte über das Konvertieren natürlicher Sprache in Softwarecode bis hin zu automatisierter Konversation und Textvervollständigung.

Nvidia Omniverse

Avatare für das Metaverse

Nvidia hat Ende vergangenen Jahres mit „Nvidia Omniverse“ eine Plattform zur Erstellung von immersiven KI-gesteuerten Avataren vorgestellt. Sie verknüpft Technologien aus den Bereichen Natural Language Processing, Computer Vision, Recommendation Engines und Simulation, um dreidimensionale Avatare mit interaktiven Fähigkeiten für die entstehenden virtuellen Welten zu schaffen –Stichwort: Metaverse.

Die so entstehenden KI-Assistenten sollen konfigurierbar sein und auf unterschiedliche Branchen angepasst werden können. Als Einsatzgebiete im Kundenservice nennt Nvidia unter anderem Terminvereinbarungen, Reservierungen oder auch Banktransaktionen. „Das Zeitalter der intelligenten virtuellen Assistenten ist angebrochen“, sagte Jensen Huang, Gründer und CEO von Nvidia.

„Omniverse Avatar kombiniert die grundlegenden Grafik-, Simulations- und KI-Technologien, um einige der komplexesten Echtzeitanwendungen zu entwickeln, die je geschaffen wurden. Die Anwendungsfälle von kollaborativen Robotern und virtuellen Assistenten sind unglaublich und weitreichend.“ Omniverse Avatar befindet sich derzeit mit mehr als 70.000 Nutzern in der offenen Beta-Phase.

„Die künftigen Modelle werden immer ausgefeilter sein (...). Unternehmen werden kaum die Zeit und das Talent investieren, um ihre eigenen Instanzen an vortrainierten Modellen zu erstellen.“

Kirk Borne, Chief Science Officer bei Dataprime

Mehr zu KI

→ Fünf Gründe für Pytorch Warum das Deep Learning Framework den Vergleich mit Tensorflow nicht scheuen muss. www.cowo.de/a/3548551

→ Top-Tools für Tensorflow Lesen Sie, mit welchen Werkzeugen Sie das beste aus dem KI-Framework herausholen können. www.cowo.de/a/3547391

→ Python, C++, Java, Swift ... Hier erfahren Sie, welche Programmiersprachen Sie in Ihren KI-Projekten ans Ziel bringen. www.cowo.de/a/3548859

Google Cloud bietet mehrere KI-Dienste für die Dokumentenverarbeitung an, darunter DocAI für die allgemeine Dokumentenverarbeitung und Lösungen etwa für das Beschaffungswesen, Kontaktzentren, das Vertragsmanagement oder Kreditwürdigkeitsprüfungen.

Zu den zahlreichen AWS-Services für maschinelles Lernen gehören etwa Angebote für automatisierte Bild- und Videoanalyse (Recognition), Dokumentenverarbeitung (Textract), das Einrichten von Chatbots (Lex), automatisierte Codeüberprüfungen (Codeguru) und die individuelle Anpassung von Webanwendungen (Personalize).

AWS bietet auch branchenspezifische KI-Lösungen wie Healthlake, um anormales Geräteverhalten mittels Sensordaten zu erkennen, oder Amazon Fraud Detector für Finanzdienstleistungen und andere Branchen.

Mehr ML-Modelle as a Service (MLaaS) dürften auf den Markt kommen, glaubt Kirk Borne, Chief Science Officer bei Dataprime: „Die künftigen Modelle werden immer ausgefeilter sein, und die Kosten für ihr Trainings werden stark steigen. Unternehmen werden kaum die Zeit und das Talent investieren können, um ihre eigenen Instanzen an vortrainierten Modellen zu erstellen.“

Aus Sicht von Borne werden sich gerade kleinere und mittlere Betriebe verstärkt mit ML und KI beschäftigen und MLaaS-Angebote perfekt finden, weil sie Zeit und Geld sparen und dabei Projekte umsetzen können, die für sie vorher nicht denkbar waren. „MLaaS hilft auch dabei, die allgegenwärtige Talentlücke zu schließen, weil sich die Vorteile vortrainierter MLaaS nutzen lassen, die auch noch besonders ausgefeilte und leistungsstarke Algorithmen verwenden.“

Herausforderung: KI zugänglich machen

Eine Herausforderung für Public-Cloud-Anbieter besteht derzeit allerdings doch noch darin, ihre ML- und KI-Funktionen auch solchen Betrieben zugänglich zu machen, die keine fortschrittlichen Softwareentwicklungs- und Data-Science-Teams beschäftigen. Hier können Low-Code-Technologien helfen, die schon integrierte ML-Funktionen mitbringen oder Entwicklern zumindest Schnittstellen zu den vorhandenen KI-Services bieten.

Beispielsweise vereinfacht AWS Sagemaker das Entwickeln, Testen und Bereitstellen von Modellen für maschinelles Lernen erheblich. Die integrierte Entwicklungsumgebung bietet eine Reihe von Funktionen, etwa einen Data Wrangler, mit dem Data Scientists bei der Datenvorbereitung unterstützt werden, oder einen Feature Store als gemeinsames Repository für ML-Features. Hier erhalten Entwickler und Datenwissenschaftler Hilfsmittel für die Zusammenarbeit und Wiederverwendung, außerdem DevOps-Funktionen für die schnelle Bereitstellung. AWS Sagemaker konkurriert mit Data-Science-Plattformen wie Alteryx, Dataiku, KNIME und SAS.

Microsoft bietet mit dem Azure Machine Learning Studio ein Portal, das No-Code- und Code-First-Erfahrungen für Datenwissenschaftler kombiniert. Das fortgeschrittenste Low-Code-KI-Angebot von Microsoft ist der AI Builder für die Power-Apps-Plattform, mit dem Low-Code-Entwickler Textklassifizierung, Objekterkennung und Formularverarbeitung durchführen können.

Google setzt auf No-Code

Google verfolgt mit AutoML für das Training von Modellen einen ähnlichen Ansatz. Die in Googles No-Code-Plattform Appsheet integrierte Intelligenz umfasst Funktionen wie Trendvorhersagen, Content-Klassifizierungen, Sentiment-Analysen und andere Funktionen.

Die öffentlichen Clouds konkurrieren im Low- Code-Umfeld mit Plattformen von Anbietern wie beispielsweise Creatio, Outsystems, Thinkwise oder Vantiq, die jeweils auch ML-

Funktionen bieten. Es wird interessant sein zu sehen, wie Public Clouds mit Startups, Anbietern von Unternehmenssoftware, Chipherstellern, Infrastrukturspezialisten und Open-Source-Plattformen im Bereich innovativer KI- und ML-Lösungen konkurrieren beziehungsweise kooperieren werden. Sie alle arbeiten daran, größere Modelle, mehr Dienste und einfachere On-Ramps für die Integration von Anwendungen zu unterstützen.

Oracle steigt groß ein

Während AWS, Microsoft und Google Cloud schon aufgrund ihrer Marktdominanz in der Public Cloud eine größere Reichweite mit ihren entsprechenden KI-Angeboten genießen, schickt sich Oracle an weiter aufzuholen. Der Datenbank-Primus hat sein Public-Cloud-Angebot „Cloud Infrastructure Service“ (OCI) gerade erst um eine Reihe von KI-Tools erweitert, die es Entwicklern und Data Scientists erleichtern sollen, maschinelles Lernen und KI in verschiedenen Szenarien anzuwenden. So ist eine neue KI-Suite für die Entwicklung und Ausführung von Big-Data-Anwendungen verfügbar. Sie konkurriert mit der Sagemaker-Plattform von AWS und dem Azure Machine Learning Studio von Microsoft – letztere wurde allerdings eher für Entwickler als für Datenprofis konzipiert.

„Unternehmen, die bereits mit Oracle-Datenbanken arbeiten, werden von den neuen Ser vices profitieren“, glaubt Holger Müller, Principal Analyst von Constellation Research.

Er sieht in dem Angebot ein Zeichen dafür, dass Oracle mit seinem Schwerpunkt auf der Datenbank in der OCI-Cloud in die richtige Richtung gehe. Mit den neuen Diensten müssen sich Kunden nicht mehr um die Installation, Aktualisierung und Verwaltung von KI-Plattformen kümmern und können sich ganz auf Programmierung und Datenanalysen konzentrieren.

Die neuen Oracle-Tools umfassen KI-basierte Dienste rund um das Interpretieren von Texten und Erkennen von gesprochener Sprache, außerdem Bild- und Anomalieerkennung. Hinzu kommen Funktionen für das Erstellen von Prognosen und das Aufbereiten von Trainingsdaten. Vielversprechend ist der neue Sprachdienst „OCI Language“, mit dem Entwickler, laut Hersteller Textanalysen in großem Maßstab vornehmen können.

Der Dienst könne unstrukturierten Text in Dokumenten, Kundenfeedback-Interaktionen, Support-Tickets und sozialen Medien interpretieren. Er wird mit vortrainierten Modellen ausgeliefert, so dass Kunden sofort damit arbeiten und Einblicke in Form von Sentiment-Analysen oder Phrasenerkennung gewinnen können. Zu den Use Cases gehören die automatisierte Auswertung von Kunden-Feedback, die Verbesserung des Kundensupports oder das proaktive Erkennen von Verstößen gegen das Datenschutzrecht.

(hv)