Bereits Kunde? Jetzt einloggen.
Lesezeit ca. 6 Min.

Kaleidoskop der Wissenschaft: KIs und Ethik: Klare Regeln tun Not


Linux Magazin - epaper ⋅ Ausgabe 2/2020 vom 02.01.2020

Von einer übermächtigen Superintelligenz bis zu Dilemmas beim automatischen Fahren reicht der Katalog an ethischen Fragen und Problemen, die sich mit künstlicher Intelligenz verbinden. Ein neues wissenschaftliches Institut der TU München soll sie jetzt erforschen.


Artikelbild für den Artikel "Kaleidoskop der Wissenschaft: KIs und Ethik: Klare Regeln tun Not" aus der Ausgabe 2/2020 von Linux Magazin. Dieses epaper sofort kaufen oder online lesen mit der Zeitschriften-Flatrate United Kiosk NEWS.

Bildquelle: Linux Magazin, Ausgabe 2/2020

© maxkrasnov, 123RF

Linux-Magazin: Herr Professor Lütge, Sie leiten seit Kurzem ein neues „Institut für Ethik in der KI“ an der TU München. Warum müssen wir uns eigentlich speziell um Ethik in der künstlichen Intelligenz kümmern? Welche besonderen Probleme gibt es denn da?
Christoph Lütge: Das Kernproblem besteht darin, dass viele Menschen der ...

Weiterlesen
epaper-Einzelheft 5,99€
NEWS 14 Tage gratis testen
Bereits gekauft?Anmelden & Lesen
Leseprobe: Abdruck mit freundlicher Genehmigung von Linux Magazin. Alle Rechte vorbehalten.

Mehr aus dieser Ausgabe

Titelbild der Ausgabe 2/2020 von Die Alleswisser. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Die Alleswisser
Titelbild der Ausgabe 2/2020 von News. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
News
Titelbild der Ausgabe 2/2020 von Zahlen & Trends. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Zahlen & Trends
Titelbild der Ausgabe 2/2020 von Bericht von der VMworld 2019 in Barcelona: In Richtung Pazifik. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Bericht von der VMworld 2019 in Barcelona: In Richtung Pazifik
Titelbild der Ausgabe 2/2020 von Kernel 5.4: ExFAT in Staging, Lockdown-Modus: Neues Sperrgebiet. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Kernel 5.4: ExFAT in Staging, Lockdown-Modus: Neues Sperrgebiet
Titelbild der Ausgabe 2/2020 von Sicher auf Kubernetes zugreifen: Fallen vermeiden. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Sicher auf Kubernetes zugreifen: Fallen vermeiden
Vorheriger Artikel
Über die faszinierenden wie erschreckenden Möglichkeite…
aus dieser Ausgabe
Nächster Artikel E-Privacy-Verordnung: Ratloses Nutzertracking
aus dieser Ausgabe

Linux-Magazin: Herr Professor Lütge, Sie leiten seit Kurzem ein neues „Institut für Ethik in der KI“ an der TU München. Warum müssen wir uns eigentlich speziell um Ethik in der künstlichen Intelligenz kümmern? Welche besonderen Probleme gibt es denn da?
Christoph Lütge: Das Kernproblem besteht darin, dass viele Menschen der KI mit Skepsis begegnen – in Deutschland sicher noch mehr als in anderen Ländern, wo das tendenziell aber auch der Fall ist. Der Charakter der KI, die häufig als Black Box dargestellt wird, macht vielen Sorgen – vor allem, dass man die Schritte eines Programms nicht mehr im Einzelnen verfolgen kann, dass selbst Entwickler nicht mehr genau wissen, was nun das Programm oder der Algorithmus gemacht haben. Und wie gehen wir mit den so gewonnenen Resultaten um? Ich glaube, das ist ein wichtiger Punkt, weswegen es Regeln für diese Technologie braucht.

Linux-Magazin: Sie haben es gerade selbst angesprochen: Es lässt sich nicht immer nachvollziehen, wie eine künstliche Intelligenz zu einer bestimmten Entscheidung gekommen ist. Kann denn eine daraus resultierende Handlung überhaupt moralisch sein, wenn ich deren Begründung nicht mehr aufklären kann?

Christoph Lütge: Zunächst einmal ist ja klar, dass es sich um ein System handelt, eine Software, um einen Computer, der etwas macht. Insofern kann man ja keine Begründung in dem Sinne fordern, wie man sie für eine menschliche Handlung fordern würde. Aber ich glaube doch – und es ist mir auch wichtig, darauf hinzuweisen –, dass die Resultate von KI-Programmen auch sehr viele ethisch positive Folgen haben können – etwa, wenn es um das autonome Fahren geht. Da besteht zumindest grundsätzlich die Möglichkeit, dass diese Technologie viele Leben rettet, viele Unfälle vermeidet.
In anderen Bereichen geht es eher um Nachhaltigkeit, darum, dass smarte Systeme etwa im Energiebereich Verwendung finden, den man gar nicht mehr ohne KI steuern kann. Sie könnten zudem den Ressourceneinsatz deutlich verbessern und so die Energienutzung effizienter und damit auch ethisch wertvoll machen. Insofern liegt das ethisch Vorteilhafte nicht auf der Ebene einer Motivation oder der Handlung selbst, sondern bei den Folgen der Handlung. Die können für viele Menschen auch positiv sein, wenn man die richtigen Regeln vorgibt.

Linux-Magazin: Ist es in diesen Fällen nicht weniger die Maschine, die da ethisch handelt, sondern der Programmierer, der festgelegt hat, was sie tun soll?
Christoph Lütge: Ich halte auch nichts davon, zu sagen, dass man die Maschine oder das System für verantwortlich erklärt. Stattdessen muss es klar sein, dass der Entwickler beziehungsweise das Unternehmen, das hinter einer bestimmten Software steht, für seine Produkte verantwortlich ist und dann auch die Haftung übernehmen muss für den Fall, dass etwas schiefgeht.

Linux-Magazin: Ein häufiges Problem im Umfeld Künstlicher Intelligenz ist immer wieder die Missachtung der Privatsphäre. Wo würden Sie da die Leitlinien sehen in einer Zeit, in der ja praktisch immer und überall irgendwelche Daten über uns gesammelt werden? Auch Ihr Sponsor Facebook ist ja da in vorderster Front mit dabei.
Christoph Lütge: Diese Cambridge-Analytica-Geschichte war fraglos ein großer Skandal, da hat man das Vertrauen der Nutzer missbraucht. Ich glaube, es ist gut, dass wir mittlerweile bei dem Thema vorangekommen sind. Wir haben ja jetzt in Europa die Datenschutzgrundverordnung, die ich für ein sehr sinnvolles System halte und die auch anderen Ländern als Vorbild dient. Im Grundsatz wird das Thema Datenschutz jetzt weltweit anerkannt, übrigens durchaus auch in China. Dort spielt Privatsphäre etwa in den Beijing Principles, die dieses Jahr veröffentlicht wurden, eine Rolle und wurde von Huawei auch in dem Whitepaper „On Responsible AI“ vor einigen Wochen aufgegriffen.
Man muss jedoch sicherlich auch sehen, dass man es mit dem Datenschutz nicht zu weit treiben darf. Gerade dieser Tage erschien dazu ein wichtiges Papier in „Science“, und da kann man wohl kaum sagen, dass das irgendwie voreingenommen ist. Diese Studie sagt, dass die Datenschutzgrundverordnung die Forschung in vielen Bereichen massiv behindert. Es wird ja jetzt auch schon zumindest über Anpassungen innerhalb der DSGVO nachgedacht.

Linux-Magazin: Neben kommerziell motivierter Datensammlung gibt es ja auch noch die aus vermeintlichen Sicherheitsinteressen heraus, man denke nur an Edward Snowden. Sehen Sie da ebenfalls eine moralische Frage, die für Sie ein Forschungsgegenstand wäre?

Christoph Lütge: Ja, absolut. Wenn man sich mit den Themen im Detail beschäftigt, sind die Fragen deutlich schwieriger, als wenn man das nur auf einer globalen Ebene betrachtet. Gerade beim Thema Sicherheit ergibt sich ja folgendes Dilemma: Einerseits versprechen viele Unternehmen eine End-to-End-Encryption – das kann man ja heute leisten, siehe WhatsApp. Auf der anderen Seite kommen aber dann Geheimdienste, und zwar nicht nur aus einem Land, und sagen: Wir wollen aber trotzdem eine Hintertür für uns haben, aufgrund von Sicherheitsbedenken. Wie geht man mit diesem Dilemma um? Ich glaube, es gibt keine einfache Lösung für diese Fragen; man muss sich das tatsächlich im Einzelnen ansehen. Vermutlich ist es eine Illusion zu glauben, man könne dieses regierungsseitige Datensammeln verhindern – das wird nicht funktionieren. Aber es gilt auch zu bedenken, dass man es da nicht zu weit treibt, sondern es mit klaren Vorgaben begrenzt. Das ist eine schwierige Abwägung.

Linux-Magazin: Es wird ja auch an intelligenten Waffen geforscht – sollte man das verbieten? Oder ist es vielleicht sogar besser, wenn statt Menschen Roboter gegeneinander kämpfen?
Christoph Lütge: Für beides gibt es gute Argumente. Ich glaube, auch hier wäre es illusorisch zu glauben, dass man so etwas weltweit ächten und verbieten könnte. In zu vielen Ländern steht solche Technik ja schon im Einsatz, nicht nur in der Forschung. Die Bundeswehr etwa kauft solche Drohnen inzwischen auch. Es ist immer die Frage, was man mit intelligenten Waffensystemen genau meint. Ich denke, darüber wird man diskutieren müssen. Ich finde es schlecht, dass man versucht, schon die Diskussion darüber zu unterdrücken – das ist keine gute Idee. Auf jeden Fall muss man auch da auf klare Begrenzungen für solche Systeme dringen und klären, wo und in welchem Rahmen sie sich einsetzen lassen. Darüber müssen wir eine offene Diskussion führen; das ist auch eine politische Frage. Auf jeden Fall darf man das weder ignorieren noch totschweigen.

© Sonja Herpich

Prof. Dr. Christoph Lütge ist Direktor des Institute for Ethics in Artificial Intelligence an der Technischen Universität München (TUM), das 2019 eröffnet wurde. Er ist seit 2010 Professor für Wirtschaftsethik an der TUM und forscht auf dem Gebiet der Wirtschafts- und Unternehmensethik sowie der Ethik der Digitalisierung und Künstlichen Intelligenz. Nach dem Studium der Wirtschaftsinformatik und Philosophie (Promotion 1999) war Professor Lütge wissenschaftlicher Assistent am Lehrstuhl für Philosophie und Ökonomik der LMU München, wo er sich auch habilitierte (2005). Von 2016 bis 2017 war er Mitglied der Ethik-Kommission für automatisiertes und vernetztes Fahren beim Bundesministerium für Verkehr und digitale Infrastruktur. Er ist außerdem Mitglied im Scientific Committee der Europaparlament-Initiative AI4People und war als Gastwissenschaftler in Pittsburgh, San Diego, Venedig, Taipeh, Kyoto sowie kürzlich an der Harvard University tätig.

Abbildung 1 Wen soll das autonome Auto überfahren, wenn der Unfall unabwendbar ist? Ein moralisches Dilemma.


Andriy Popov, 123RF

Linux-Magazin: Ein Knackpunkt bei dieser Diskussion ist ja sicherlich, ob am Ende ein Algorithmus die Entscheidung treffen darf, ob jemand weiterlebt oder nicht, oder ob ein Mensch das letzte Wort haben sollte.
Christoph Lütge: Ja, die Frage stellt sich bei KI generell. Da muss man zwischen zwei Dingen unterscheiden: Zum einen gibt es die Fälle, die zeit- und sachunkritisch sind, bei denen es also nicht auf den Zeitpunkt ankommt, zu dem die Entscheidung fällt. Nehmen wir mal Algorithmen, die die Kreditwürdigkeit von Menschen untersuchen – die meisten Systeme sind in dieser Art. Da kann und wird man sagen, dass die KI-Systeme nur eine Entscheidungsunterstützung leisten und die letztliche Entscheidung dann ein Mensch trifft.
Zum anderen gibt es Fälle wie das autonome Fahren. Wenn es da um Entscheidungen in Sekundenbruchteilen geht, lässt sich unmöglich zwischendurch noch eine menschliche Entscheidung einbauen. Deshalb gilt es, die Algorithmen sehr sorgfältig zu prüfen und Abwägungen zu treffen: Wie viel Gutes kann eine Technologie wie das autonome Fahren bewirken, wie viele Menschenleben kann es retten? Andererseits wird es Situationen geben, in denen ein Fehler passiert – die muss man so weit wie möglich ausschließen. Aber klar ist auch: Keine Technologie ist völlig fehlerfrei.

Linux-Magazin: Abgesehen von Fehlern ergibt sich ja gerade beim autonomen Fahren das häufig beschriebene Dilemma, ob das Auto nun im Zweifelsfall besser den Rentner oder das Kind überfährt, wenn ein Unfall unabwendbar ist. Möglicherweise sollte es sich überhaupt nicht entscheiden?
Christoph Lütge: Ich war ja vor zwei Jahren in der Ethik-Kommission für das autonome Fahren beim Bundesverkehrsministerium, als wir diese Richtlinien vorgelegt haben. Da haben wir auch diese Frage behandelt. Unser Standpunkt war: Es darf keine Diskriminierung aufgrund irgendwelcher persönlichen Eigenschaften geben. Das wäre auch gar nicht mit dem Grundgesetz vereinbar. Es kann also nicht sein, dass man die Jüngeren auf Kosten der Älteren bevorzugt, auch wenn das manche Ergebnisse nahelegen. Sie kennen wahrscheinlich diese Moral-Machine-Ergebnisse vom MIT, die darauf hinaus wollen, unsere Intuition, zumindest in den westlichen Ländern, sei so, dass wir die Jüngeren bevorzugen. Interessanterweise würde man in manchen asiatischen Ländern eher die Älteren vorziehen. Da handelt es sich aber um Intuitionen, die man so nicht in ein System einbauen kann – das wäre mit keiner Verfassungsgesetzgebung vereinbar, die ich kenne.

(jcb)