Bereits Kunde? Jetzt einloggen.
Lesezeit ca. 13 Min.

Lernen wie ein Kind


Gehirn & Geist - epaper ⋅ Ausgabe 5/2018 vom 06.04.2018

KÜNSTLICHE INTELLIGENZ Kinder begreifen oft blitzschnell. Wie ihnen das gelingt, untersuchen inzwischen auch Neuroinformatiker. Ihr Wissen soll intelligente Maschinen dazu bringen, eigenständig zu lernen.


Artikelbild für den Artikel "Lernen wie ein Kind" aus der Ausgabe 5/2018 von Gehirn & Geist. Dieses epaper sofort kaufen oder online lesen mit der Zeitschriften-Flatrate United Kiosk NEWS.

Bildquelle: Gehirn & Geist, Ausgabe 5/2018

UNSERE EXPERTIN


ROD SEARCEY

Alison Gopnik ist Professorin für Psychologie und Philosophie an der University of California in Berkeley. Sie erforscht, wie kleine Kinder lernen.

Wie schaffen es kleine Kinder, in so kurzer Zeit so viel zu lernen? Seit Platons Zeiten zerbrechen sich Philosophen den Kopf darüber, haben jedoch bislang keine befriedigende Antwort gefunden.

Mein fünfjähriger Enkel Augie etwa weiß ...

Weiterlesen
epaper-Einzelheft 5,99€
NEWS 14 Tage gratis testen
Bereits gekauft?Anmelden & Lesen
Leseprobe: Abdruck mit freundlicher Genehmigung von Gehirn & Geist. Alle Rechte vorbehalten.

Mehr aus dieser Ausgabe

Titelbild der Ausgabe 5/2018 von GEISTESBLITZE: Neurogenese: Sprießen im erwachsenen Gehirn doch keine Neurone mehr?. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
GEISTESBLITZE: Neurogenese: Sprießen im erwachsenen Gehirn doch keine Neurone mehr?
Titelbild der Ausgabe 5/2018 von Persönlichkeit: Weibliche Führungskräfte ticken eher wie Männer. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Persönlichkeit: Weibliche Führungskräfte ticken eher wie Männer
Titelbild der Ausgabe 5/2018 von Sexualstörung: Pädophil aus falscher Fürsorge?. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Sexualstörung: Pädophil aus falscher Fürsorge?
Titelbild der Ausgabe 5/2018 von Ein Tag voller Verlockungen. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Ein Tag voller Verlockungen
Titelbild der Ausgabe 5/2018 von Ist das noch gesund?. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Ist das noch gesund?
Titelbild der Ausgabe 5/2018 von Flammen der Frustration. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Flammen der Frustration
Vorheriger Artikel
Tapetenwechsel für die Psyche
aus dieser Ausgabe
Nächster Artikel DIE GEHIRN & GEIST-INFOGRAFIK: Geschichte der künstliche…
aus dieser Ausgabe

... jede Menge über Pflanzen, Tiere und Uhren, von Dinosauriern und Raumschiffen ganz zu schweigen. Außerdem hat er eine Ahnung davon, was andere Menschen von ihm erwarten, wie sie denken und fühlen. Er ordnet mit diesem Wissen neue Eindrücke ein und zieht daraus seine Schlüsse. So erklärte er mir vor Kurzem, die zurzeit im American Museum of Natural History in New York ausgestellte, neu entdeckte Art von Titanosauriern zähle ebenfalls zu den Pflanzenfressern, sei also eher harmlos.

Dabei ist die Information, die Augie von seiner Umwelt aufnimmt, sehr abstrakt und besteht lediglich aus Photonen, die auf die Netzhaut seiner Augen treffen, und Luftschwingungen, die seine Trommelfelle in Bewegung versetzen. Gleichwohl schafft es der neuronale Computer, der sich hinter Augies blauen Augen verbirgt, damit allerhand Wissen über Pflanzen fressende Titanosaurier anzuhäufen. Da stellt sich die Frage: Können elektronische Rechner das auch?

Seit etwa 15 Jahren suchen Computerwissenschaftler und Psychologen vergeblich nach einer Antwort. Und wie es aussieht, werden sie an dieser Frage noch Jahrzehnte zu beißen haben. Kleine Kinder lernen durch erstaunlich wenige Beispiele, sei es von Eltern, Lehrern oder anderen Personen in ihrer Umgebung. Trotz der enormen Fortschritte im Bereich der künstlichen Intelligenz (KI) kommen selbst die leistungsfähigsten Com-puter noch immer nicht an das Lernvermögen Fünfjähriger heran. Doch einige Ansätze gehen bereits in die richtige Richtung.

Nach einer euphorischen Anfangsphase während der 1950er und 1960er Jahre dümpelte die KI-Forschung jahrzehntelang vor sich hin. Erst in den letzten Jahren kam es zu bahnbrechenden Fortschritten, vor allem auf dem Gebiet des maschinellen Lernens (siehe »Zwei Wege des maschinellen Lernens«, S. 55). Inzwischen ist die KI eine der heißesten technischen Entwicklungen überhaupt. Der atemberaubende Fortschritt hat allerlei Propheten auf den Plan gerufen, deren Zukunftsvisionen von der Unsterblichkeit bis zum Untergang der Menschheit reichen.

Roboter als Zwitterwesen

Vielleicht erweckt die KI solch starke Gefühle, weil sie bei den meisten Menschen eine tief sitzende Angst erregt. Die Idee von Zwitterwesen, die den Unterschied zwischen Mensch und Maschine verwischen, wirkt seit jeher äußerst verstörend – vom mittelalterlichen Golem über Frankensteins Monster bis zu Ava, der verführerischen »Robotrix fatale« aus dem Film »Ex Machina«. Aber wie lernen Computer, Katzen, gesprochene Wörter oder japanische Schriftzeichen zu erkennen? In den Einzelheiten mag das schwer nachvollziehbar sein, doch auf den zweiten Blick sind die Grundideen gar nicht so kompliziert.

Der Photonenstrom und die Luftschwingungen, die Augie – wie jeder von uns – mit seinen Sinnesorganen empfängt, erreichen einen Computer als Pixel eines digitalen Bildes beziehungsweise als einzelne Schalldruckwerte einer Tonaufnahme. Aus diesen Daten gewinnt der Rechner Folgen von Mustern, die er in einem weiteren Schritt Objekten der Umgebung zuordnen kann. Das lernende System erlangt sein Wissen in einer Prozedur namens »bottom-up«, also von unten nach oben, vom Einfachen zum Komplexen. Aus den Rohdaten bildet es Muster und aus diesen schließlich Begriffe.

Dieser Ansatz geht zurück auf die Ideen vieler bedeutender Wissenschaftler, darunter der Philosophen David Hume (1711–1776) und John Stuart Mill (1806–1873) sowie der Psychologen Iwan Pawlow (1849–1936) und Burrhus F. Skinner (1904–1990).

Auf einen Blick: Inspirationsquelle Kindergehirn

1 Neuroinformatiker und Psychologen untersuchen, wie Vorschulkinder »ticken« – wie sie denken, argumentieren und die Welt begreifen. Dieses Wissen wollen die Forscher auf Computer übertragen, um ihnen ein Verständnis der Welt beizubringen.

2 Aktuelle Entwicklungen der künstlichen Intelligenz werden durch zwei konkurrierende Ansätze bestimmt. Beim »Bottomup-Verfahren«, zu dem auch das Deep Learning gehört, lernt ein Algorithmus anhand tausender Beispiele, bestimmte Gesetzmäßigkeiten zu erkennen.

3 »Top-down-Systeme« funktionieren umgekehrt: Sie erhalten nur wenige Beispiele, beziehen aber ihr Vorwissen mit ein, um zu berechnen, mit welcher Wahrscheinlichkeit ein bestimmtes Muster auftritt. Kinder kombinieren beim Lernen offenbar das Beste aus beiden Verfahren.

Die Gehirn&Geist-Serie »Künstliche Intelligenz« im Überblick:

Teil 1: Vorbild Gehirn (Gehirn&Geist 4/2018)
Teil 2: Lernen wie ein Kind (dieses Heft)
Teil 3: Warum Roboter keine Gänsehaut bekommen (Gehirn&Geist 6/2018)

In den 1980er Jahren fanden Forscher eine geniale Methode, um das Bottom-up-Konzept auf Computer zu übertragen: die künstlichen neuronalen Netze. Sie versuchten zu simulieren, wie Nervenzellen die auf unsere Augen treffenden Lichtmuster in eine Repräsentation der Umwelt verwandeln. Die eingehenden Reize (beim Computer die Pixel) werden über mehrere Schichten aus zahlreichen Schaltelementen – Nervenzellen beziehungsweise deren künstliche Gegenstücke – hinweg verarbeitet und dadurch in zunehmend abstraktere Konzepte übersetzt, die etwa für eine Nase oder ein ganzes Gesicht stehen.

Nach einigen Anfangserfolgen stagnierte auch diese Idee für Jahre, bis sie in jüngerer Zeit aus ihrem Dornröschenschlaf erwachte. Neu war diesmal nicht eine revolutionäre Idee, sondern einfach Masse. Die inzwischen ins Gigantische angewachsene Rechenleistung der Computer erlaubte es, mehr Schichten aufeinanderzustapeln; und solche vielschichtigen (»tiefen«) Deep-Learning-Netze sind inzwischen zu Leistungen fähig, die Technologiegiganten wie Google und Facebook bereits erfolgreich kommerziell nutzen. Außerdem stehen mittlerweile riesige Datenmengen zur Verfügung. Mit mehr Daten, die besser verarbeitet werden können, lernen solche »konnektivistischen« Systeme bei Weitem besser, als wir uns das früher haben vorstellen können.

Lange Zeit schwankte die KI-Gemeinde zwischen ebendiesen Bottom-up-Lösungen und dem umgekehrten Prinzip: »top-down«, von oben nach unten. Gemeint ist, dass ein System schon vorhandenes Wissen nutzt, um neue Dinge zu lernen. Übertragen auf den Menschen müsste dieser bereits mit einem gewissen elementaren Vorwissen auf die Welt kommen – sonst wäre er zum Lernen nicht fähig. Sowohl Platon als auch die so genannten rationalistischen Philosophen wie René Descartes (1596–1650) vertraten eine solche Vorstellung. In der Frühzeit der KI spielte der Top-down-Ansatz eine große Rolle; und auch er erlebte in den 2000er Jahren ein Comeback, und zwar in Gestalt der wahrscheinlichkeitstheoretischen oder bayesschen Modellierung.

Das Top-down-Verfahren entspricht einem leicht überzeichneten Bild vom Vorgehen theoretischer Physiker: Erst stellen sie abstrakte und weit reichende Hypothesen über die Welt auf; dann ermitteln sie, wie die Daten aussehen müssten, wenn die Annahmen korrekt sind. Schließlich messen sie diese Daten in der echten Welt und revidieren daraufhin ihre Hypothesen.

Bottom-up …

Doch beginnen wir zunächst mit den Bottom-up-Verfahren. Was genau können wir uns darunter vorstellen? Nehmen Sie einmal an, Ihr Computer solle in Ihrem E-Mail-Posteingang relevante Nachrichten von Spam trennen. Solche Junk-Mails zeichnen sich häufig durch bestimmte Eigenschaften aus: eine lange Empfängerliste, ein Absender aus Nigeria oder Bulgarien, die Nachricht, man habe viel Geld gewonnen oder es gebe Viagra günstig zu kaufen. Jedes dieser Merkmale könnte natürlich auch auf gewöhnliche Mails zutreffen. Und Sie wollen auf keinen Fall ein attraktives Stellenangebot verpassen oder die Nachricht, dass Sie einen akademischen Preis erhalten haben.

Wenn Sie eine große Menge Junk-Mails mit anderen Nachrichten vergleichen, bemerken Sie vielleicht, dass nur im Spam bestimmte verräterische Kombinationen von Kriterien auftauchen: Verspricht etwa ein Absender aus Nigeria eine Million, verheißt das nichts Gutes.

Darüber hinaus gibt es eher unauffällige Muster, die nicht durch schlichtes Wörtervergleichen abfragbar sind, zum Beispiel Schreibfehler oder bestimmte IP-Adressen. Wenn Sie derartige Kriterien entdecken und anwenden, bekommen Sie einen sehr trennscharfen Spamfilter. Was der verwirft, können Sie unbesehen löschen. Und die Info, dass das von Ihnen tatsächlich bestellte Viagra soeben an Sie versandt wurde, entgeht Ihnen trotzdem nicht.

Computer, die nach dem Bottom-up-Prinzip arbeiten, können die relevanten Eigenschaften von Spamund Nicht-Spam-Nachrichten eigenständig erkennen und die E-Mails entsprechend sortieren. Dafür muss ein künstliches neuronales Netz zuvor trainiert werden, also mehrere Millionen Beispiel-E-Mails aus einer Datenbank durchgehen – wobei jede dieser Nachrichten entweder als »Spam« oder »Nicht-Spam« markiert ist. Der Algorithmus lernt allmählich, welche Merkmale den jeweiligen Typ von E-Mail charakterisiert.

Eine besondere Bottom-up-Methode, das so genannte unüberwachte Lernen (unsupervised learning), arbeitet ganz ohne »Lehrer«. Ein entsprechend programmiertes Netz ist in der Lage, Muster zum Beispiel in Bildern zu erkennen, obgleich ihm beim Training niemand verraten hat, was auf dem jeweiligen Bild zu sehen ist. Es lernt einfach durch Erfahrung, dass gewisse Merkmalskombinationen häufig vorkommen, etwa eine Nase und Augen in der richtigen Stellung zueinander. So entdeckt das Netz, dass es Gesichter gibt und dass sie sich von den Bäumen und Bergen im Hintergrund unterscheiden.

Mittlerweile sind Bottom-up-Methoden ungeheuer erfolgreich. In einem 2015 in »Nature« erschienenen Ar-tikel erklären Wissenschaftler des Google-Unternehmens DeepMind, wie ihr Computer eine Reihe klassischer Atari-Videospiele lernte. Zunächst machte der Algorithmus in völliger Ahnungslosigkeit zufällige Züge und erhielt sogleich Feedback über seine Erfolge beziehungsweise Misserfolge, ein Vorgehen, das Forscher »verstärkendes Lernen« oder »reinforcement learning« nennen. Dabei verschaffte er sich mit Hilfe des Deep Learning ein Bild von den Figuren und anderen Elementen des Spiels. In mehreren Durchgängen erreichte er die Fähigkeiten eines professionellen Spieletesters oder übertraf ihn sogar um Größenordnungen. Jedoch versagte er völlig bei anderen Spielen, die einem Menschen ebenso einfach erscheinen.

MEHR WIS SEN AUF » SPEKTRUM.DE «


Mehr über intelligente Maschinen lesen Sie in unserem digitalenSpektrum Kompakt »Künstliche Intelligenz« :

www.spektrum.de/shop

Da künstliche neuronale Netze aus großen Datenmengen – Millionen von Instagram-Bildern, E-Mails oder Sprachaufnahmen – lernen können, lösen sie inzwischen Probleme, die noch vor einigen Jahren unüberwindlich schienen, etwa im Bereich der Bild- und Spracherkennung. Wir dürfen allerdings nicht vergessen: Mein Enkel schafft das mit weitaus weniger Daten und Training, und obendrein beantwortet er beinahe beliebige Fragen zum Thema. Was ein Fünfjähriger mit links erledigt, kann für einen Computer auch heute noch deutlich komplizierter sein, als beispielsweise Schach zu lernen.

Um ein Gesicht mit Fell und Schnurrhaaren richtig einzuordnen, braucht ein neuronales Netz oft Millionen von Beispielen, während wir mit einigen wenigen auskommen (siehe auch Gehirn&Geist 4/2018, S. 56). Nach fleißigem Üben mag ein Computer in der Lage sein, eine Katze, die er noch nie gesehen hat, als solche zu erkennen. Aber er kommt zu dieser Erkenntnis auf einem völlig anderen Weg als ein Mensch, und er macht auch andere Fehler. So hält er etwa Strukturen auf Bildern für Katzen, die für einen Menschen nach etwas völlig anderem aussehen, und umgekehrt.


Was ein Fünfjähriger mit links erledigt, kann für einen Computer komplizierter sein, als Schach zu lernen


Top-down …

Zu dem entgegengesetzten Konzept »top-down« kann ich eine Geschichte aus der »Spam-Welt« beisteuern, die ich selbst erlebt habe. Ich erhielt eine Mail von dem Herausgeber einer Zeitschrift, deren Namen ich nicht kannte. Der Absender bezog sich auf einen meiner Artikel und schlug mir vor, eine Veröffentlichung für sein Journal zu schreiben – kein Nigeria, kein Viagra und keine Millionenversprechen. Die üblichen Merkmale für Spam lagen sämtlich nicht vor. Trotzdem kam mir die Nachricht verdächtig vor.

Der Grund: Ich wusste bereits, wie Spam produziert wird; dass die Absender oft versuchen, an das Geld ihrer Opfer zu kommen, indem sie deren Gier ansprechen.

Und für einen Akademiker mag eine Veröffentlichung in einem Journal ähnlich attraktiv sein wie für andere ein großer Geldbetrag oder die Steigerung der sexuellen Leistungsfähigkeit. Außerdem wusste ich, dass frei zugängliche (»open access«) Zeitschriften inzwischen dazu übergehen, statt der Leser die Autoren zur Kasse zu bitten. Drittens hatte meine Arbeit absolut nichts mit dem Titel des Journals zu tun. All dies zusammen ergab die plausible Hypothese, dass diese Mail Akademikern für die Veröffentlichung in einer Zeitschrift, die niemand liest, Geld aus der Tasche ziehen sollte. Ein einziger Anhaltspunkt, die merkwürdige E- Mail, genügte mir, um die Hypothese aufzustellen. Deren Nachprüfung, im Internet nachsehen, welchen Ruf der Herausgeber genießt, war dann der logische nächste Schritt.

Ein Computerwissenschaftler würde meinen Gedankengang als »generatives Modell« bezeichnen. Das ist ein System, das abstrakte Begriffe wie »Gier« und »Betrug « bilden und beschreiben kann, wie Hypothesen erstellt werden, etwa die Gedankenkette, die mich veranlasst hat, die Mail als Spam zu verdächtigen. Das generative Modell in meinem Kopf liefert nicht nur eine plausible Erklärung dafür, wie der Absender der Junk-Mail es angestellt hat, eine so große Zahl an Nachrichten zu versenden, dass er hinreichend viele gutgläubige Opfer findet; ich kann mir auch andere Arten von Spam ausdenken, darunter solche, von denen ich noch nie gehört habe.

Generative Modelle spielten eine Hauptrolle in der ersten Welle der KI und der Kognitionswissenschaft in den 1950er und 1960er Jahren; schon damals zeigten sich jedoch ihre Grenzen. Erstens gibt es im Allgemeinen verschiedene Hypothesen, die dieselben Daten erklären können. Die merkwürdige Mail des Zeitschriftenherausgebers hätte ernst gemeint sein können, auch wenn das unwahrscheinlich war. Also müssen generative Modelle ihre Hypothesen mit einer bestimmten Wahrscheinlichkeit versehen. Wie das funktioniert, ist heute eine wichtige Frage in der Neuroinformatik. Zweitens ist es häufig unklar, wo die grundlegenden Vorstellungen herkommen, aus denen die generativen Modelle ihre Begriffswelt aufbauen. Denker wie René Descartes und Noam Chomsky glaubten, wir seien von Anfang an mit ihnen geboren. Aber kommen wir wirklich mit einem Begriff von Neid oder Betrug zur Welt?

Beide Problemfelder geht ein Ansatz an, der unter den neueren Top-down-Ideen den ersten Rang einnimmt: bayessches Schlussfolgern (Bayesian inference). Benannt nach dem Statistiker und Philosophen Thomas Bayes (1701–1761), kombiniert die Methode generative Modelle mit Wahrscheinlichkeitstheorie. Sie berechnet, mit welcher Wahrscheinlichkeit ein bestimmtes Muster auftritt, und zwar unter der Voraussetzung, dass eine zuvor aufgestellte Hypothese zutrifft.

Eine Frage der Wahrscheinlichkeit

Wenn eine Mail Spam ist, dann zielt sie vermutlich auf die Gier oder Eitelkeit des Empfängers ab. Aber natürlich kann es auch sein, dass der Absender einer gewöhnlichen Nachricht auf solche Gefühle setzt. Ein bayessches Modell setzt das Vorwissen mit den vorliegenden Daten in Beziehung und bestimmt daraus ziemlich genau die Wahrscheinlichkeit dafür, dass soeben eine Spam-Mail eingegangen ist – oder eben doch eine ganz normale Nachricht.

Zu dem, was wir über das Lernverhalten von Kindern wissen, passt top-down besser als bottom-up. Deshalb untersuche ich mit meinem Team an der University of California in Berkeley mit Hilfe bayesscher Modelle, wie Kinder Kausalzusammenhänge erlernen. Dabei versuchen wir vorherzusagen, wann und wie sie sich neue Vorstellungen über die Welt aneignen und bereits vorhandene revidieren.

Bayessche Methoden sind ein hervorragendes Konzept, um Maschinen so lernen zu lassen wie Menschen. 2015 entwickelte Joshua Tenenbaum vom Massachusetts Institute of Technology gemeinsam mit Brenden M. Lake von der New York University eine künstliche Intelligenz, die unbekannte handgeschriebene Buchstaben erkennt – eine Aufgabe, die zwar Menschen leichtfällt, aber Maschinen große Schwierigkeiten bereitet.

Denken Sie an Ihre eigenen Fähigkeiten: Wenn Sie zum ersten Mal in Ihrem Leben ein Zeichen auf einer alten japanischen Schriftrolle sehen, können Sie wahrscheinlich sagen, ob es mit einem Zeichen auf einer anderen Schriftrolle übereinstimmt oder nicht. Sie können es einigermaßen mit der Hand kopieren und sogar einen Fantasiebuchstaben malen, der irgendwie altjapanisch aussieht; und Sie erkennen auf den ersten Blick den Unterschied zu einem koreanischen oder kyrillischen Schriftzeichen. Genau das konnte die Software von Tenenbaums Gruppe am Ende auch.

Zwei Wege des maschinellen Lernens

Wie verschafft sich ein Computer ein Bild von dem Buchstaben A, so dass er ihn später in diversen Texten – handgeschrieben oder gedruckt – wiedererkennen kann? Diese Aufgabe erledigt ein fünfjähriges Kind im Handumdrehen, stellt für Maschinen aber nach wie vor eine große Herausforderung dar. Zurzeit existieren zwei konkurrierende Lösungsansätze: Das Bottom-up-Verfahren erfordert langes Training und unzählige Beispiele, während der Top-down-Ansatz auf einen bereits vorhandenen Grundstock an Wissen baut.

Bottom-up (Deep Learning)

Aus verschiedenen Beispielen des Buchstabens »A« lernt der Computer, unterschiedliche Anordnungen aus hellen und dunklen Pixeln als Versionen des gleichen Zeichens zu erkennen. Das System vergleicht ein neu vorgelegtes Zeichen mit den so erworbenen Daten und bestätigt daraufhin, dass es tatsächlich ein »A« ist. Deep Learning ist eine erheblich weiterentwickelte Version dieses Grundgedankens.

Top-down (bayessches Schlussfolgern)

Ein einziges Beispiel des Buchstabens »A« genügt dem System, um zu erkennen, was ein »A« ausmacht. Auf die Vorlage des Beispiels hin erzeugt die Maschine ein Modell des Buchstabens aus ihrem internen Vorrat an elementaren Bauteilen; in diesem Fall sind es zwei Striche, die sich oben in einem spitzen Winkel treffen, plus ein Querstrich. Mit Hilfe dieses Modells kann sie krumme und schiefe Versionen des Buchstabens zuverlässig erkennen oder auch selbst erzeugen. Obendrein kann sie den so erworbenen Begriff auf verschiedene Weise abwandeln.

JEN CHRISTIANSEN; TOP DOWN METHODE NACH LAKE, B.M. ET AL.: HUMAN-LEVEL CONCEPT LEARNING THROUGH PROBABILISTIC PROGRAM INDUCTION. IN: SCIENCE 350, S. 1332-1338, 2015 / SCIENTIFIC AMERICAN JUNI 2017

Beim Bottom-up-Lernen würde der Computer aus Tausenden von Beispielen gewisse Muster extrahieren und mit deren Hilfe neu vorgelegte Zeichen erkennen. Stattdessen legte sich das System ein bayessches Modell dafür zu, wie man einen Buchstaben zeichnet; zum Beispiel einen Strich nach rechts gefolgt von einem Strich nach oben. Und nachdem die Software mit dem einen Buchstaben fertig war, ging sie zum nächsten über.


Kleine Kinder kombinieren das Beste aus beiden Methoden und gehen noch weit darüber hinaus


Wenn das Programm einen Buchstaben sah, konnte es die Folge der Linien herleiten, aus denen er bestand, und daraufhin eine ähnliche Strichfolge produzieren. Im Prinzip vollzog es dieselben Gedankengänge wie ich, als ich die Mail von der dubiosen Zeitschrift als Spam klassifizierte. Nur ging es diesmal nicht um die Wahrscheinlichkeit, dass eine Nachricht in unlauterer Absicht verfasst worden war, sondern darum, dass eine bestimmte Folge von Linien den erwünschten Buchstaben ergeben würde. Dieses Top-down-Programm zeigte frappante Ähnlichkeiten mit der Leistung von Menschen und funktionierte bedeutend besser als Bottomup-Techniken des Deep Learning, die auf dieselben Daten angewandt wurden.

Die beiden führenden Ansätze des maschinellen Lernens, bottom-up und top-down, ergänzen sich in ihren Stärken und Schwächen. Bei bottom-up muss das System zunächst absolut nichts über Katzen wissen, braucht aber eine große Datenmenge. Das bayessche System dagegen kann aus nur wenigen Beispielen lernen und ist gut im Verallgemeinern, benötigt jedoch sehr viel Vorarbeit, bis es die richtigen Hypothesen entwerfen kann.

Und bei beiden Systemarten stoßen die Entwickler auf gleichartige Hindernisse. Beide funktionieren nur bei relativ begrenzten und gut definierten Problemen, wie etwa dem Erkennen von Katzen oder Buchstaben oder dem Spielen auf dem Atari.

Unter diesen Einschränkungen leiden kleine Kinder nicht. Irgendwie, so haben Entwicklungspsychologen herausgefunden, kombinieren sie das Beste aus beiden Methoden und gehen noch weit darüber hinaus. Augie kann – ganz top-down – aus nur einem oder zwei Beispielen lernen. Zugleich extrahiert er aus den Daten – quasi bottom-up – völlig neue Begriffe, die nicht von Anfang an da waren.

Augie erkennt mühelos Katzen und unterscheidet Buchstaben. Zudem zieht er kreative und überraschende neue Schlüsse, die weit über seine Erfahrungen oder sein Hintergrundwissen hinausgehen. Vor Kurzem erklärte er mir, wenn ein Erwachsener sich in ein Kind zurückverwandeln wolle, dann solle er möglichst kein gesundes Gemüse essen. Klar doch: Wenn du Spinat und Ähnliches isst, wirst du groß und stark; wenn du aber genau das Gegenteil willst … Bisher haben wir so gut wie keine Idee, wie diese Art von kreativer Argumentation entsteht.

Wir sollten an diese immer noch unverstandenen und geheimnisvollen Kräfte des menschlichen Geistes denken, wenn wir die Behauptung hören, die KI sei eine existenzielle Bedrohung. Künstliche Intelligenz und maschinelles Lernen klingen beängstigend, und in gewisser Weise sind sie es auch. Immerhin arbeitet das Militär schon an ihrem Einsatz für die Steuerung von Waffen.

Aber es gibt etwas, das weitaus gefahrenträchtiger ist als künstliche Intelligenz: natürliche Dummheit. Wir Menschen müssen uns viel geschickter als in der Vergangenheit anstellen, wenn wir mit den neuen Technologien richtig umgehen wollen.

QUELLEN

Gopnik, A., Tenenbaum, J.: Bayesian Networks, Bayesian Learning and Cognitive Development.
In: Developmental Science 10, S. 281–287, 2007

Gopnik, A.: The Gardener and the Carpenter: What the New Science of Child Development Tells Us about the Relationship between Parents and Children.Farrar, Straus & Giroux, New York 2016

Lake, B. M.et al.: Human-Level Concept Learning through Probabilistic Program Induction.
In: Science 350, S. 1332–1338, 2015

Mnih, V.et al.: Human-Level Control through Deep Reinforcement Learning.
In: Nature 518, S. 529–533, 2015

Dieser Artikel im Internet: www.spektrum.de/artikel/1549589


MENNOVANDIJK / GETTY IMAGES / ISTOCK