Klicken Sie hier, wenn dieser Newsletter nicht richtig angezeigt wird

 
 
 
 

Erlesenes #82

5 Denkanstöße rund um Algorithmenethik

 

19.09.2019

Willkommen zur 82. Ausgabe der wöchentlichen Algorithmenethik-Lektüreempfehlungen "Erlesenes".

Wo helfen uns Algorithmen wirklich bei den großen gesellschaftlichen Herausforderungen? Und wo werden sie eingesetzt, um unsere Schwächen auszunutzen? Können wir die richtigen Ziele falsch angehen? Und was müssen wir für den Einsatz algorithmischer Systeme Kindern beibringen? Diesen großen Fragen nähern sich unsere fünf Impulse der Woche. Bleiben Sie informiert und diskutieren Sie über Twitter (@algoethik) oder unseren Blog mit!

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.

Machen uns Algorithmen dümmer, als wir sind?
12. September 2019, Zeit Online
Wenn Künstliche Intelligenz (KI) auf menschliche Dummheit trifft, entsteht eine toxische Mischung. Diesen Standpunkt vertritt Lisa Herzog, Philosophieprofessorin an der TU München und freie Autorin bei Zeit Online. Herzog verwendet den Begriff "natürliche Dummheit" nicht abwertend für einzelne Personen, sondern als Beschreibung für bei uns allen vorkommende Fehler, Schwächen und unreflektierte Präferenzen. Viele Algorithmen im Netz seien darauf optimiert, diese Fehler und Schwächen vorherzusagen und auszunutzen. "Ist das wirklich das Beste, was wir mit diesen neuen Technologien anstellen können?", fragt die Autorin – was sie umgehend zur nächsten Überlegung bringt: Wieso werden die Algorithmen nicht an den Stellen eingesetzt, an denen sie dringender gebraucht werden könnten? Es sei noch viel mehr Diskussion darüber notwendig, wo KI uns wirklich dient und wo nicht.

Wie künstliche Intelligenz bei der Stadtplanung hilft
9. September 2019, futurezone
Welchen Unterschied macht es für die Temperatur, wenn beim Bau von Gebäuden die Windrichtung miteinberechnet wird? Welche Auswirkungen wird ein Neubau auf den öffentlichen Nahverkehr haben? Diese und andere stadtplanerische Fragen soll in Wien Künstliche Intelligenz (K) beantworten können. Dort hat das Austrian Institute of Technology (AIT) ein sogenanntes City Intelligence Lab (CIL) eröffnet. Laut futurezone-Reporterin Barbara Wimmer handelt es sich um das erste Labor weltweit, in dem mit KI Städte geplant werden können. Rund 40 Mitarbeiter:innen hätten die Algorithmen in den vergangenen Monaten trainiert. Das System erlaube es, anhand von bereitgestellten Daten verschiedene Modelle zu errechnen, die Expert:innen dann für ihre Entscheidungen nutzen können. Früher haben derartige Kalkulationen Monate gedauert, nun seien lediglich einige Klicks erforderlich. Bürger:innen könnten außerdem direkt sehen, was für Auswirkungen einzelne Maßnahmen auf die Stadt haben, berichtet Wimmer.

Schlechte Daten, gute Ziele – gute Daten, schlechte Ziele?
(Face recognition, bad people and bad data), 9. September 2019, ben-evans.com
Die Diskussionen und Befürchtungen zu Gesichtserkennung erinnern ihn an die Debatten, die in den 70er und 80er Jahren über damals revolutionäre neue Datenbanktechnologien geführt wurden, schreibt Benedict Evans. Der bei der US-amerikanischen Technologie-Investmentfirma Andreessen Horowitz tätige Analyst ordnet die tatsächlichen und angenommenen Herausforderungen von Künstlicher Intelligenz (KI) ein, die auch im Speziellen die Gesichtserkennungstechnik einschließen. Evans teilt KI-Probleme in zwei grundsätzliche Kategorien ein: "When bad people use good data" und "When good people use bad data" (frei übersetzt: gute Daten, genutzt für falsche Ziele, sowie gute Zwecke, auf Basis falscher Daten). Bezugnehmend auf seinen Vergleich zur Datenbankendebatte wirft der Autor außerdem einen genauen Blick auf die subjektiven, kulturellen und (geo-)politischen Dimensionen der verschiedenen Sorgen zu Künstlicher Intelligenz.

Warum und wie Kinder über Künstliche Intelligenz lernen sollten
(Kids are surrounded by AI. They should know how it works.), MIT Technology Review, 13. September 2019
Kindern frühzeitig die Funktionsweisen und Implikationen Künstlicher Intelligenz (KI) zu vermitteln, sei in verschiedener Hinsicht lohnenswert: Es könne sich für sie langfristig ökonomisch lohnen, es helfe ihnen, sich vor Versuchen der algorithmischen Beeinflussung zu schützen und es erfülle eine wichtige gesellschaftliche Aufgabe. Das schreibt Karen Hao, KI-Reporterin bei MIT Technology Review. In ihrem Artikel berichtet sie über ein Pilotprojekt der "MIT Media Lab"-Forscherin Blakeley Payne, in dessen Rahmen 28 Schüler:innen im Alter von neun bis 14 Jahren mit verschiedenen, jeweils im praktischen Alltag verankerten Übungen an KI und Fragen der Algorithmenethik herangeführt wurden. Ihren dazu erarbeiteten Lehrplan hat Payne unter einer Creative-Common-Lizenz frei zugänglich gemacht. Ihr Ziel sei es, das Curriculum auf Basis von öffentlichem Feedback weiter zu verfeinern und anschließend Wege zu finden, es in das öffentliche Bildungssystem (der USA) einfließen zu lassen. Übrigens: Wie man Algorithmenethik kinderleicht erklärt, haben auch wir kürzlich in der Sendung "Erde an Zukunft: Algorithmenethik kinderleicht erklärt" des Kinderkanals von ARD und ZDF gezeigt.

Knifflige philosophische Fragen zu Maschinen, die Entscheidungen treffen
(AI don't regret a thing), 8. September 2019, heise online
Bewährte Konzepte von Verantwortung und Schuld lassen sich nicht ohne Weiteres auf teilweise autonom agierende Maschinen übertragen, wie der Wissenschaftsjournalist Roland Fischer in dieser philosophischen Betrachtung aufzeigt. Eine Künstliche Intelligenz (KI) könne "richtig" funktionieren und trotzdem etwas furchtbar "Falsches" machen. Wäre es deshalb hilfreich, wenn auch Maschinen ein Unrechtsbewusstsein erhielten? Womöglich ja, aber dies würde ein Bewusstsein bedingen. Was das eigentlich genau ist, würden wir Menschen noch immer nicht wissen, bemerkt Fischer. Es mangele also nicht an philosophischen (und wissenschaftlich) Grautönen; ähnlich schwierig seien Aspekte rund um Haftbarkeit. Für "menschliches Versagen" könnten Menschen eher Verständnis aufbringen. Für den Umgang damit hätten wir einen ausgefeilten juristischen Apparat konstruiert. Maschinelles Versagen dagegen, selbst vereinzelt, könnte zum Versagen eines ganzen technischen Komplexes führen, spekuliert Fischer.

Das war‘s für diese Woche.

Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen "Erlesenes" hier abonnieren.

 

 

Sie wollen diesen Newsletter nicht mehr erhalten oder Ihr Newsletter-Profil bearbeiten? Dann klicken Sie bitte auf den Link in Ihrer E-Mail.

 

Eine Abmeldung vom Newsletter-Tracking ist www.bertelsmann-stiftung.de/de/system/datenschutz jederzeit möglich.

 

Wir freuen uns über Ihre Fragen, Anregungen und Tipps:

 

Martin Weigert

Autor

 

Lajla Fetic

Redaktion

 

Bertelsmann Stiftung

Carl-Bertelsmann-Str. 256

33311 Gütersloh

Tel: +49 5241-8181216

Fax: +49 5241-81681216

E-Mail: lajla.fetic@bertelsmann-stiftung.de

 

Die Bertelsmann Stiftung ist eine gemeinnützige Stiftung des privaten Rechtes im Sinne von

Abschnitt 1 des Stiftungsgesetzes für das Land Nordrhein-Westfalen mit Sitz in Gütersloh.

Zuständige Aufsichtsbehörde ist die Bezirksregierung Detmold.

Stifter: Reinhard Mohn

Vorsitzender des Kuratoriums: Prof. Dr. Werner J. Bauer

Vorstand: Dr. Ralph Heck (Vorsitzender), Dr. Brigitte Mohn, Prof. Dr. Daniela Schwarzer