Zur mobilen Webseite zurückkehren
Dieser Artikel stammt aus
Publik-Forum, Heft 13/2018
Die geheimnisvolle Kraft der Kreativität
Der Inhalt:

Moral für Maschinen

von Andrea Teupke vom 06.07.2018
Eine Enquetekommission soll dem Bundestag Empfehlungen zum Umgang mit künstlicher Intelligenz geben. Das kommt spät – und ist keine leichte Aufgabe

Seit es Computer gibt, haben Menschen Angst vor ihnen. Zahlreiche Filme – von »Odyssee im Weltall« über »Terminator« bis zu »Matrix« – handeln von denkenden Maschinen, die machtgierig sind und nichts anderes im Sinn haben, als die Menschen zu versklaven. Der Mythos vom Krieg zwischen den künstlichen Geschöpfen und ihren Schöpfern wird immer wieder neu erzählt. Dabei sieht die Realität anders aus: viel unspektakulärer – und dennoch beunruhigend.

Fakt ist: Obwohl heutige Programme weit davon entfernt sind, denken, fühlen oder handeln zu können, ist die Leistungsfähigkeit der sogenannten künstlichen Intelligenz enorm. Kürzlich bewies ein Programm zur Erkennung von Hautkrebs, dass es menschlichen Experten deutlich überlegen ist: Bei einer Art Wettbewerb zwischen Mensch und Maschine, den Forscher der Uni Heidelberg sowie Wissenschaftler aus Frankreich und den USA ausrichteten, erkannte es auf Fotos 95 Prozent der gefährlichen Melanome. Hautärzte dagegen erkannten nur 86,6 Prozent der Fälle.

Was sich als segensreich erweisen und im Klinikalltag Diagnostiker bei ihrer Arbeit unterstützen könnte, ist in anderen Zusammenhängen mehr als fragwürdig. Der Wirtschaftsdienst Schufa beispielsweise nutzt Algorithmen, die über die Kreditwürdigkeit von Menschen entscheiden – ohne dass die Sachbearbeiter, geschweige denn die Betroffenen selbst, nachvollziehen können, wie es zu der jeweiligen Einschätzung kommt. In den USA beeinflussen Computer sogar Gerichtsurteile: Wenn dort ein Richter entscheidet, ob ein Strafgefangener auf Bewährung entlassen werden soll, erstellt das Programm eine Prognose über die wahrscheinliche Rückfallgefahr.

Dass solche Entwicklungen Angst machen, ist mehr als nachvollziehbar – umso mehr, als sich inzwischen gezeigt hat, dass Expertensysteme keineswegs so objektiv und unbestechlich urteilen, wie erhofft. Viele vom Computer gefällten Entscheidungen erweisen sich bei näherer Betrachtung als sexistisch oder rassistisch, wenn auch nicht immer so offensichtlich wie beim Bilderkennungsprogramm Google Photos: Dieses Programm kategorisierte im Jahr 2015 dunkelhäutige Menschen kurzerhand als Gorillas. Wie sich herausstellte, war es zuvor ausschließlich mit Fotos von hellhäutigen Menschen trainiert worden.

Auch das oben erwähnte Programm zur Prognose der Rückfallquote von Straftätern ben

Wählen Sie Ihren Zugang und lesen Sie direkt weiter.

Digital-Zugang
  • Alle über 20.000 Artikel auf publik-forum.de frei lesen und vorlesen lassen
  • Die aktuellen Ausgaben von Publik-Forum als App und E-Paper erhalten
  • 4 Wochen kostenlos testen
Digital-Zugang für "Publik-Forum"-Print-Abonnenten
  • Ergänzend zu Ihrem Print-Abonnement
  • Alle über 20.000 Artikel auf publik-forum.de frei lesen und vorlesen lassen
  • Die aktuellen Ausgaben von Publik-Forum als App und E-Paper erhalten
  • 4 Wochen kostenlos testen