Weiterlesen mit NEWS. Jetzt testen.
Lesezeit ca. 10 Min.

Deep Learning Artificial Intelligence – das Training macht den Unterschied


TecChannel Compact - epaper ⋅ Ausgabe 10/2019 vom 07.10.2019

Anwender können aus einer Vielzahl von Tools für Machine und Deep Learning wählen. Es gilt allerdings genau zu überlegen, denn jedes Werkzeug eignet sich speziell für bestimmte Aufgaben.


Rund um das Thema Artificial Intelligence (AI) ranken sich verschiedenste Mythen. Während die einen Horrorszenarien an die Wand malen, wonach Maschinen die Kontrolle über die Menschheit übernehmen werden, hoffen andere auf ein Paradies auf Erden, in dem intelligente Maschinen sämtliche Arbeit übernehmen und die Menschen nur noch tun, was ihnen Spaß macht.

Tatsächlich macht die Technik rasante Fortschritte. Sie ist in der ...

Artikelbild für den Artikel "Deep Learning Artificial Intelligence – das Training macht den Unterschied" aus der Ausgabe 10/2019 von TecChannel Compact. Dieses epaper sofort kaufen oder online lesen mit der Zeitschriften-Flatrate United Kiosk NEWS.

Bildquelle: TecChannel Compact, Ausgabe 10/2019

Weiterlesen
epaper-Einzelheft 16,99€
NEWS Jetzt gratis testen
Bereits gekauft?Anmelden & Lesen
Leseprobe: Abdruck mit freundlicher Genehmigung von TecChannel Compact. Alle Rechte vorbehalten.
Lesen Sie jetzt diesen Artikel und viele weitere spannende Reportagen, Interviews, Hintergrundberichte, Kommentare und mehr aus über 1000 Magazinen und Zeitungen. Mit der Zeitschriften-Flatrate NEWS von United Kiosk können Sie nicht nur in den aktuellen Ausgaben, sondern auch in Sonderheften und im umfassenden Archiv der Titel stöbern und nach Ihren Themen und Interessensgebieten suchen. Neben der großen Auswahl und dem einfachen Zugriff auf das aktuelle Wissen der Welt profitieren Sie unter anderem von diesen fünf Vorteilen:

  • Schwerpunkt auf deutschsprachige Magazine
  • Papier sparen & Umwelt schonen
  • Nur bei uns: Leselisten (wie Playlists)
  • Zertifizierte Sicherheit
  • Freundlicher Service
Erfahren Sie hier mehr über United Kiosk NEWS.

Mehr aus dieser Ausgabe

Titelbild der Ausgabe 10/2019 von Technik & Trends. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Technik & Trends
Titelbild der Ausgabe 10/2019 von Überblick über KI Es gibt nicht die eine Künstliche Intelligenz. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Überblick über KI Es gibt nicht die eine Künstliche Intelligenz
Titelbild der Ausgabe 10/2019 von IDC-Studie zur Künstlichen Intelligenz KI dient zur Prozessoptimierung, aber nicht zur Innovation. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
IDC-Studie zur Künstlichen Intelligenz KI dient zur Prozessoptimierung, aber nicht zur Innovation
Titelbild der Ausgabe 10/2019 von „Buy“ statt „Make“ Wie deutsche Firmen Künstliche Intelligenz nutzen. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
„Buy“ statt „Make“ Wie deutsche Firmen Künstliche Intelligenz nutzen
Titelbild der Ausgabe 10/2019 von Bitkom-Studie Industrie 4.0 Künstliche Intelligenz erobert die Fabriken. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Bitkom-Studie Industrie 4.0 Künstliche Intelligenz erobert die Fabriken
Titelbild der Ausgabe 10/2019 von Automatisches Machine Learning AutoML verhilft KI zum Durchbruch. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Automatisches Machine Learning AutoML verhilft KI zum Durchbruch
Vorheriger Artikel
Plattformen & Software
aus dieser Ausgabe
Nächster Artikel Open Source TensorFlow: Darum geht‘s beim führenden KI…
aus dieser Ausgabe

Tatsächlich macht die Technik rasante Fortschritte. Sie ist in der Lage, innerhalb kürzester Zeit gigantische Datenmengen zu verarbeiten, Muster zu erkennen, Rückschlüsse zu ziehen und Vorhersagen zu treffen. Die Logik hinter den Zusammenhängen erkennt AI jedoch nicht, warnt Andreas Dengel, Standortleiter amDeutschen Forschungszentrum für Künstliche Intelligenz (DFKI,www.dfki.de ) in Kaiserslautern.

››Deep-Learning-Modelle arbeiten mit verschiedenen Zwischenschichten, in denen der Input immer weiter abstrahiert wird. So kommen die Modelle auch gut mit neuen Daten klar. (Quelle: nach Ian Goodfellow: Deep Learning/MIT Press)


Deep-Learning-Modelle versprechen, dass die dahinterliegenden Algorithmen und neuronalen Netze ohne vorherige Definition von maßgeblichen Charakteristika der zu erkennenden Objekte auskommen. Die Modelle werden mit generell verfügbaren Daten trainiert. Der Algorithmus erfährt jeweils, ob er richtig oder falsch gelegen hat, und definiert darauf aufbauend seine eigenen Kriterien, die aus Sicht des Modells relevant für eine korrekte Erkennung sind. @@Der Nachteil dieser Methode: Es braucht viele Daten und viel Zeit sowie eine hohe Rechenkapazität für das Training von Deep-Learning-Modellen.

Modelle können das Gelernte abstrahieren

Die grundlegende Idee hinter ML und DL liegt darin, dass die Modelle über Daten lernen, das Gelernte generalisieren und im Idealfall auch auf andere, bis dato unbekannte Daten anwenden können. Modelle bestehen aus verschiedenen Komponenten: Daten, Algorithmen und sogenannten Hyperparametern – übergeordneten Kennzahlen, die etwas über den Lernprozess aussagen.

Ein Beispiel: Um Klavier spielen zu lernen braucht es Noten, sowie Angaben zu bestimmten Musik- und Kompositionsstilen – das sind die Daten. Der Algorithmus besagt, wie Hände und Finger in Korrelation zu Noten und anderen Vorgaben wie beispielsweise dem Takt die Tasten des Klaviers anschlagen sollen. Hyperparameter sind Übungsintervalle und -dauer, Ort und Zeit der Übungen, Typ des Klaviers etc. Nimmt man all dies zusammen, erhält man ein Klavierspielen-Lern-Modell. Wird es ausreichend trainiert, ist davon auszugehen, dass es in der Folge auch bis dato nicht geübte, unbekannte Musikstücke spielen kann.

Auch Maschinen lernen unterschiedlich

Wie Menschen lernen auch Maschinen unterschiedlich. Es gibt diverse Ansätze, wie sich ML-Modelle entwickeln lassen:

››Supervised : Beim sogenannten Supervised Learning sagt ein ‚Lehrer‘ dem Algorithmus, ob er richtig oder falsch gelegen hat. Ziel ist es, eine bestimmte Entwicklung vorauszusagen, wie zum Beispiel die Kündigung eines Abonnenten. Oder es lassen sich einzelne Objekte erkennen, wie beispielswiese eine Handschrift. Dafür wird der Algorithmus solange mit Parametern und Daten trainiert, bis das Modell die gewünschte Leistungsfähigkeit erreicht hat.

››Unsupervised: Beim nicht überwachten Training bekommt der Algorithmus keinerlei Hinweise, ob er richtig oder falsch liegt. Es bleibt der Maschine überlassen, selbständig Korrelationen und Beziehungen zwischen den Daten herzustellen. Am Ende muss allerdings ein Analyst entscheiden, ob die Resultate sinnvoll sind und das Business weiterbringen. Unsupervised Learning kommt meist dann zum Zug, wenn die Antworten noch nicht bekannt sind (anders beim Supervised Learning: Der Kunde kündigt – welche Parameter im Vorfeld haben darauf hingedeutet?). Ein typisches Einsatzgebiet ist die Segmentierung von Kundengruppen, die sich dann in Folge mit bestimmten Werbebotschaften und Produkten adressieren lassen.

Der Vorteil des Unsupervised Learning liegt darin, dass sich die Modelle praktisch automatisiert von selbst erstellen. Manuelle Eingriffe sind nicht nötig. Außerdem bietet dieser Ansatz oft überraschende neue Einsichten in Daten, die Unternehmen möglicherweise neue Geschäftsoptionen eröffnen. Schwierig ist bei diesem Ansatz allerdings, korrekt einzuschätzen, ob das Modell richtig funktioniert. Hier gilt es, verschiedene Effekte im Blick zu behalten.

Manchmal funktioniert ein Unsupervised-Learning-Modell in Bezug auf eine bestimmte Datenkategorie sehr gut, weil das Modell lange und intensiv trainiert wurde, kommt aber mit neuartigen Daten, die später dazukommen, nicht zurecht. Man spricht in diesem Fall von Overfitting. Ein Underfitting tritt auf, wenn zu wenig Daten zur Verfügung stehen, und das Modell nur ungenaue Klassifizierungen ausspuckt. Derartige Ausprägungen sind teilweise nur schwer zu erkennen. Zu beurteilen und zu testen, wie gut Unsupervised-Modelle funktionieren, kann daher aufwendig sein.

Im Gegensatz dazu ist ein Supervised-Modelle transparent und nachvollziehbar. Die Daten sind strukturiert, das Ergebnis ist klar. Der Interpretationsaufwand bleibt gering. Aber dieses überwachte Lernen erfordert viel Aufwand, um die benötigten Daten aufzubereiten und das Modell zu trainieren. Darüber hinaus gibt es weitere Lernansätze. Im Semisupervised-Verfahren bekommt der Algorithmus ein paar Informationen, was die Daten und deren Struktur betrifft, muss sich das Modell dann aber in weiten Teilen selbst zusammenbasteln. Beim „Reinforcement Learning“ erhält der Algorithmus bei bestimmten Schritten eine Information darüber, ob er richtig oder falsch liegt. Auch hier ist die Antwort bekannt, allerdings liegen zu wenig gelabelte Daten vor, als dass ein ‚Lehrer‘ den Algorithmus durch den gesamten Lernprozess begleiten kann. Diese bestärkende Methode kommt dem menschlichen Lernen am nächsten.

Beim Active Learning wird dem Algorithmus die Möglichkeit eingeräumt, für einen Teil der Eingaben die korrekten Antworten zu erfragen. Allerdings muss sich die Maschine selbst überlegen, welche Fragen den meisten Informationsgewinn versprechen. Transfer Learning kommt zum Einsatz, wenn man ein bestehendes Modell auf einem anderen Einsatz- und Datengebiet ausprobiert. Das kann Zeit und Aufwand beim Entwickeln eines passenden Modells einsparen. Um auf das Beispiel des Klavierspiel-uodells zurückzukommen: Dieses ließe sich als Grundlage verwenden, um ein Lernmodell für Akkordeons zu entwickeln. Notenkenntnisse als Datengrundlage sind vorhanden, genauso die Fertigkeit, wie Finger auf einer Klaviatur einzusetzen sind. Neu zu lernen ist das Handling der Basstasten und des Balgs.

Deep Learning imitiert das menschliche Gehirn

Deep Learning verfolgt einen etwas anderen Ansatz als klassische ML-Verfahren. Grundlage bilden hier sogenannte neuronale Netze, die sich an der Funktionsweise des menschlichen Gehirns orientieren – wobei anzumerken ist, dass die tatsächlichen Abläufe im menschlichen Gehirn deutlich komplexer sind, als dass ein neuronales Netz diese Nervenverschaltungen und Interaktionen abbilden oder gar nachahmen könnte. Das Grundprinzip funktioniert jedoch ähnlich: Im Gehirn sind die Neuronen über Synapsen miteinander verbunden. Je nach Aktivität sind diese Verknüpfungen stärker oder schwächer ausgeprägt. Einzelne Neuronen empfangen Signale, bewerten und bearbeiten diese und geben ein Reaktionssignal an andere Neuronen weiter.

Auch in einem künstlichen neuronalen Netz sind einzelne Recheneinheiten (Neuronen) miteinander vernetzt, um Informationen möglichst intelligent zu verarbeiten – so die Theorie. In der Praxis bestehen Deep-Learning-Architekturen aus mehreren Neuronen-Schichten, den sogenannten Layern. Es gibt einen Input Layer, mehrere Hidden Layer, in denen die Informationen verarbeitet werden, und einen Output Layer. Das eigentliche Deep Learning findet dabei in den versteckten Zwischenschichten statt. Sie bilden den Kern von Deep-Learning-Modellen.

Zwischen den einzelnen Hidden Layern werden neue Informationen gebildet. Dabei handelt es sich um unterschiedliche Repräsentationen der ursprünglichen Eingangsinformation, beispielsweise ein Gesicht auf einem Bild. Man spricht an dieser Stelle auch von Representation Learning. Diese Repräsentationen stellen jeweils eine Abstraktion des vorhergehenden Eingangssignals dar. Aus einer ursprünglich komplexen Eingangsinformation werden also durch die verschiedenen Schichten verschiedene Grade von Vereinfachungen des Inputs herausgefiltert. Im Grunde genommen, um beim Beispiel Gesicht zu bleiben, wird das Bild Schritt für Schritt auf bestimmte Formen, Linien, Farben reduziert und vereinfacht.

So lernt der Algorithmus selbständig die Merkmale auf die es ankommt und vermag anhand dieser vereinfachten, generalisierten Informationen auch neue Inpul-uaten richtig einzuordnen. Im Trainings- und Lernprozess eines Deep-Learninl-uodells kommt es vor allem darauf an, die Gewichtung, wie bestimmte Merkmale einzuschätzen sind, so anzupassen, dass die Fehlerrate immer geringer wird.

Deep-Learning-Modelle – je mehr Layer, desto komplexer

Der Grundaufbau neuronaler Netze ist immer gleich. Allerdings können Anwender durchaus spezifizieren, wie komplex ein solches Modell funktionieren soll. Das richtet sich nach der Zahl der Hidden Layer und der Zahl der Neuronen in diesen Layern sowie deren Aktivierungsfunktion, also wie sie mit den Neuronen im nächsten Layer vernetzt sind. Je nach Ausprägung gibt es unterschiedliche Typen von neuronalen Netzen, die auch auf spezielle Einsatzzwecke abzielen.

››Die einfachste Form der neuronalen Netze sindFeedforward Neural Networks (FNNs) . Sie bestehen aus einer Input-Schicht, einem oder mehreren Hidden Layers und einer Output-Schicht. Die Informationen laufen in eine Richtung vom Input zum Output. Es gibt keine Rückkopplungen oder Kreise.

››Convolutional Neural Networks (CNNs) eignen sich vor allem zur Analyse von räumlich angeordneten Daten, wie beispielsweise Bildern oder Videos. Hier kommen unterschiedliche Typen von Layern zum Einsatz. Die Convolutional Layer überprüfen bestimmte Bereiche des Inputs anhand eines bestimmten Filters, etwa Farbe oder Helligkeit. In der Folge verwerfen sogenannte Pooling Layer überflüssige Informationen und komprimieren somit die zu verarbeitende Informationsmenge. Das verringert den Speicherbedarf und erhöht die Verarbeitungsgeschwindigkeit.

››InRecurrent Neural Networks (RNNs) sind die Neuronen in geschlossenen Kreisen organisiert. Das bedeutet, Outputs werden an die gleichen Neuronen als Input zurückgespielt. Daher eignet sich diese Architektur vor allem dafür zeitlich aufeinander folgende Informationen zu verarbeiten, wie Zeitdatenreihen und Sprache.

››Generative Adversarial Networks (GANs) bestehen aus zwei neuronalen Netzwerken. Eines ist ein umgedrehtes CNN, ein sogenanntes Deconvolutional Neural Network, das anhand bestimmter Merkmale Inhalte erstellt – Bilder oder Texte zum Beispiel. Diesen Teil bezeichnet man als Generator. Der Antagonist ist ein klassisches CNN, das nun herausfinden soll, ob der zu untersuchende Input echt ist oder vom Generator künstlich erschaffen wurde. Diesen Teil des GANs nennt man Dis criminator. Beide Bestandteile des GANs optimieren sich in einer Art Wettbewerb gegenseitig. Mit Hilfe dieser Variante eines neuronalen Netzes lassen sich beispielsweise Texte oder Bilder in bestimmten Stilen schaffen, wenn man zuvor die Maschine mit den entsprechenden Inhalten der Schriftsteller und Maler füttert.

Tatsächlich haben vor gut einem Jahr verschiedene Schriftsteller im Auftrag des Unternehmens Calm, Anbieter einer Meditations- und Vorlese-App, einen Algorithmus mit Wörtern und Sätzen der Gebrüder Grimm trainiert. Heraus kamen verschiedene Textbausteine im Stil der Märchenbrüder, die allerdings noch von dem Künstlerkollektiv Botnik zu einem neuen Märchen zusammengesetzt werden mussten. „Die Prinzessin und der Fuchs“ bringt alles mit, was zu einem Grimm-Märchen gehört: Eine Prinzessin, die der König mit einem Prinzen verheiraten will, den sie aber nicht mag. Außerdem gibt es einen armen Müllerssohn, ein magisches Pferd und natürlich den Fuchs. Und wenn sie nicht gestorben sind, dann leben sie noch heute.