Klicken Sie hier, wenn dieser Newsletter nicht richtig angezeigt wird

 
 
 
 

Erlesenes #59

5 Denkanstöße rund um Algorithmenethik

 

07.03.2019

Willkommen zur 59. Ausgabe der wöchentlichen Algorithmenethik-Lektüreempfehlungen "Erlesenes".

Die Berliner können sich diese Woche über einen neuen Feiertag freuen! Die (zusätzliche) freie Zeit lässt sich daher gut zum Lesen des einen oder anderen Artikels aus unserem Newsletter investieren. Wie können Algorithmen bei der „richtigen“ Ernährung helfen? Was können Journalist:innen bei der Berichterstattung zu algorithmischen Entscheidungssystemen beachten? Diese und weitere Fragen behandeln wir in den kuratierten Beiträgen dieser 59. Ausgabe „Erlesenes“.

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leserinnen und Lesern. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an carla.hustedt@bertelsmann-stiftung.de zukommen lassen. 

Die Algorithmus-Diät
(The A.I. Diet), 2. März 2019, New York Times
Die bisher verbreitete Annahme, dass die Ernährung mit den bekannten gesunden Lebensmitteln für jede Person ähnlich empfehlenswert sei, muss – und kann – im Zeitalter von Künstlicher Intelligenz (KI) hinterfragt werden. Darauf weist der Kardiologe und Professor der Molekularmedizin, Eric Topol, in diesem Essay hin. Topol erläutert unter anderem mit Bezug auf eine Studie israelischer Forscher:innen mit dem Titel “Siri, What Should I Eat”, dass die algorithmische Analyse von persönlichen Gesundheits- und Ernährungsdaten zeigt, wie hochgradig personalisiert “richtige” Ernährung eigentlich ist. Sie hänge von den Bakterien in der Darmflora ab, die von Person zu Person stark variiert. Mit geeigneten Daten über Ernährung, Lebensstil, Schlaf, Stress, Genetik sowie vorhandene Bakterien könne jeder Mensch in Zukunft personalisierte Ernährungsratschläge von einer KI erhalten, glaubt Topol. Dafür liefere die jüngste Studie mit 800 Probanden und 5000 standardisierten Mahlzeiten einen wichtigen Schritt.

Leitfragen für Journalist:innen: Wie wir künftig über Algorithmen schreiben sollten
(Acing the algorithmic beat, journalism’s next frontier), 14. Februar 2019, NiemanLab
Der wachsende Einfluss von Algorithmen auf die Gesellschaft und auf alltägliche Entscheidungen schafft ein wichtiges und breites Themenfeld für die journalistische Berichterstattung. Das schreiben Francesco Marconi, Till Daldrup und Rajiv Pant, die in unterschiedlichen Rollen beim Wall Street Journal tätig sind. Ausgehend von einem Zitat der US-amerikanischen Mathematikerin und Buchautorin Cathy O’Neil, die Algorithmen als “in Computercode eingebettete Meinungen” bezeichnet, erörtert das Trio, wie Journalist:innen die verschiedenen Eigenheiten und potenziellen Schwachstellen gängiger Algorithmen „unter die Lupe“ nehmen können. Die Autoren liefern dazu einen praktisch anwendbaren Leitfaden, der beispielsweise fragt, was die Aufgabe eines Algorithmus sei: ob seine Funktionsweise für Anwender:innen transparent und nachvollziehbar gemacht wird und ob es dokumentierte Fehlresultate (etwa Falsch-Positive) geben solle. 

Forschung zu Künstlicher Intelligenz braucht Sozialwissenschaftler:innen
(AI Safety Needs Social Scientists), 19. Februar 2019, Distil
Um Künstliche Intelligenz (KI) zu realisieren, die Entscheidungen nach den Wünschen ihrer Anwender:innen trifft, müsse ein grundlegendes Verständnis über das Denken und die Wertekonstrukte von betreffenden Menschen geschaffen werden.  Kein leichtes Unterfangen, aber nicht unmöglich, schreiben die KI- und Ethikforscher:innen Geoffrey Irving und Amanda Askellin diesem wissenschaftlichen Meinungsbeitrag. Sie schlagen umfangreiche Experimente mit einer großen Zahl von Testpersonen vor, die Sachdebatten führen und im Zuge dessen verwertbare Daten über ihr zugrunde liegendes Denken und Wertesystem generieren. Der Forschungsbereich benötige deshalb Sozialwissenschaftler:innen, die geübt darin sind, die Motivationen hinter von Menschen getätigten Aussagen und präsentierten Argumenten in systematischer und zuverlässiger Form offenzulegen. 

Social Media: Mit Memes zu Gesundheitsthemen aufklären
(Drowned out by the algorithm: Vaccination advocates struggle to be heard online), 26. Februar 2019, NBC News
Dass Menschen Informationen über Gesundheitsthemen und Impfungen vermehrt aus sozialen Medien statt über Suchmaschinen wie Google beziehen, habe das öffentliche Verständnis von Medizin dramatisch verändert. Das konstatiert Joan Donovan, Forscherin an der Harvard University. Wie die Algorithmen von YouTube, Facebook & Co. die Verbreitung von Falschinformationen befördern könnten, diskutiert die NBC-News-Reporterin Brandy Zadrozny in diesem Artikel (siehe auch Erlesenes #56 und Erlesenes #11). Lange Zeit fiel es den Gesundheits- und Forschungsinstitutionen schwer, ihre Informationskampagnen an die neuen Wettbewerbsbedingungen der sozialen Medien anzupassen. Doch mittlerweile greifen zumindest einige der Wissenschaft verpflichtete Aktivist:innen zu  pragmatischen Werkzeugen: meinungsstarke Facebook-Seiten, Memes und Beiträge, die mit viralem Charakter Emotionen wecken – eben das, was die Algorithmen der sozialen Netzwerke bisher mit Reichweite belohnt haben.

Die Ethik der Künstlichen Intelligenz ist komplex
(Is Ethical A.I. Even Possible?), 1. März 2019, New York Times
Ist der ethische Einsatz von Künstlicher Intelligenz (KI) überhaupt möglich? Mit dieser provokativen Frage befasst sich Cade Metz, Technologiereporter bei der New York Times. Mit Blick auf verschiedene ethische Perspektiven rund um KI entladen sich Konflikte zwischen Technologiefirmen und Teilen der jeweiligen Belegschaft (siehe Erlesenes #47 und Erlesenes #32). Nach Ansicht von Metz sorgt vor allem die Tatsache, dass Ethik im Auge des Betrachters oder der Betrachterin liegen kann, für hohe Komplexität und Schwierigkeiten bei der Lösungsfindung. Weil sie das Dilemma selbst nicht gelöst bekommen, seien sich die Parteien aber zunehmend in einem einig, so Metz: dem Ruf nach staatlicher Regulierung.

In eigener Sache: Algo.Rules - Wie kriegen wir die Ethik in den Code? 
Damit die Digitalisierung zu mehr Chancen für alle Menschen führt, braucht es Regeln. Gemeinsam mit dem iRights.Lab haben wir deshalb die Algo.Rules entwickelt, mit denen ethische Standards im Programmiercode verankert werden können. In diesem Blogbeitrag erklären wir, für welche algorithmischen Systeme dies besonders wichtig ist, und an wen sich die Regeln richten.

Das war‘s für diese Woche. 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren

Mehr zum Thema Algorithmenethik finden Sie auch in unserem Blog: https://algorithmenethik.de/

 

 

Sie wollen diesen Newsletter nicht mehr erhalten oder Ihr Newsletter-Profil bearbeiten? Dann klicken Sie bitte auf den Link in Ihrer E-Mail.

 

Eine Abmeldung vom Newsletter-Tracking ist www.bertelsmann-stiftung.de/de/system/datenschutz jederzeit möglich.

 

Wir freuen uns über Ihre Fragen, Anregungen und Tipps:

 

Martin Weigert

Autor

 

Lajla Fetic

Redaktion

 

Bertelsmann Stiftung

Carl-Bertelsmann-Str. 256

33311 Gütersloh

Tel: +49 5241-8181216

Fax: +49 5241-81681216

E-Mail: lajla.fetic@bertelsmann-stiftung.de

 

Die Bertelsmann Stiftung ist eine gemeinnützige Stiftung des privaten Rechtes im Sinne von

Abschnitt 1 des Stiftungsgesetzes für das Land Nordrhein-Westfalen mit Sitz in Gütersloh.

Zuständige Aufsichtsbehörde ist die Bezirksregierung Detmold.

Stifter: Reinhard Mohn

Vorsitzender des Kuratoriums: Prof. Dr. Werner J. Bauer

Vorstand: Dr. Ralph Heck (Vorsitzender), Dr. Brigitte Mohn, Prof. Dr. Daniela Schwarzer