Klicken Sie hier, wenn dieser Newsletter nicht richtig angezeigt wird

 
 
 
 

Erlesenes #66

5 Denkanstöße rund um Algorithmenethik

 

25.04.2019

Willkommen zur 66. Ausgabe der wöchentlichen Algorithmenethik-Lektüreempfehlungen "Erlesenes".

Von Algorithmen, die Bücher schreiben und fehlender Diversität bei KI Entwickler:innen – im Erlesenes kuratieren wir wieder eine bunte Mischung an Themen. Die Welt der Algorithmenethik ist in Bewegung. Jetzt Erlesenes lesen und auf dem neuesten Stand bleiben!

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an carla.hustedt@bertelsmann-stiftung.de zukommen lassen.

Neu im Bücherregal: Das erste von einem Algorithmus publizierte Buch
15. April 2019, AlphaGalileo
Der Berliner Wissenschaftsverlag Springer Nature hat das nach eigenen Angaben erste maschinengenerierte wissenschaftliche Buch veröffentlicht, wie die Goethe-Universität Frankfurt am Main hier informiert. Von ihr stammt das eingesetzte Verfahren, das Textinhalte aus relevanten Forschungspublikationen automatisch auswählen, verarbeiten und zusammensetzen kann. Der nun publizierte Prototyp biete einen Überblick über die neuesten Erkenntnisse zum Thema Lithium-Ionen-Batterien und könne kostenlos heruntergeladen werden. Künftig sei mit einer Vielzahl an weiteren Veröffentlichungstypen zu rechnen: von diversen Mensch-Maschine-Kooperationen hin zu vollständig maschinengenerierten Texten. Der Prototyp solle eine Debatte über Chancen und Risiken von maschinengenerierten Inhalten in der Wissenschaft anstoßen.

Gesichtserkennung selber bauen für weniger als 100 Dollar
17. April 2019, Golem
Öffentliche Webcams, etwas Zeit und weniger als 100 US-Dollar – mehr benötigt man nicht, um sich spontan eine eigene Überwachungsinfrastruktur per Gesichtserkennung aufzubauen. Das zeigt die New York Times in einer Reportage, die Golem-Redakteur Moritz Tremmel zusammenfasst. Die Journalist:innen glichen öffentliche Webcam-Bilder vom New Yorker Bryant Park mittels eines Cloud-Gesichtserkennungsdienstes von Amazon mit den Bildern der Mitarbeiter:innen auf Webseiten von Firmen in der Nähe ab – und hatten mehrfach Erfolg. Das System erkannte unter anderem den Professor Richard Madonna, obwohl er nur von der Seite aufgenommen wurde. Dass es so einfach ist, Menschen im öffentlich Raum zu überwachen, sollte angesichts der ethischen Probleme mit Gesichtserkennungstechnologie beunruhigen. Ein von Forscher:innen der belgischen Universität Leuven vorgestelltes Verfahren kommt da vielleicht gerade recht (PDF): Es verwirrt den Algorithmus mithilfe eines am Körper getragenen graphischen Elements.

Die Diversitätskrise der Künstlichen Intelligenz (KI)
“Discriminating Systems: Gender, Race, and Power in AI”, April 2019, AI Now Institute
Das Forschungs- und Praxisfeld der Künstlichen Intelligenz (KI) stecke in einer bedenklichen Diversitätskrise, gekennzeichnet von einem Mangel an Vielfalt in Bezug auf an der Entwicklung der Technologie beteiligten Geschlechtern, Ethnien und anderen Identitäten. Das konstatieren die Forscherinnen Sarah Mayers West, Meredith Whittaker und Kate Crawford vom New Yorker AI Now Institute in diesem umfassenden Bericht. Der Mangel an Diversität sei ein maßgeblicher Faktor für die unzählig dokumentierten Fälle von Diskriminierung bestimmter Gruppen durch unfaire und intransparente KI-Systeme. Bisherige Versuche, die Missstände zu beheben, greifen nach Ansicht der drei Wissenschaftler:innen viel zu kurz. KI-Systeme, die historische Benachteiligungen bestimmter Gruppen nicht fortsetzen oder gar verstärken, erfordern erstens eine echte Vielfalt an den Arbeitsplätzen, wo die Systeme entwickelt und eingesetzt werden, und zweitens parallel neue Wege bei der Prüfung und Evaluation der Systeme an sich, so die Forderung der drei Expertinnen. Zu beiden Bereichen liefern sie in dem Bericht konkrete Vorschläge für Maßnahmen.

Über “Künstliche Intelligenz”, Regulierung und die Freiheit von Auswirkungen der Technologie
(AI is not coming for you), 18. April 2019, blairreeves.me
Vieles von dem, was heutzutage als “Künstliche Intelligenz” (KI) angepriesen wird, sei wenig mehr als aufmerksamkeitsheischender Quatsch, so der Softwareproduktmanager Blair Reeves. Häufig bekämen seit Langem existierende Lösungen einfach das Etikett “KI” aufgedrückt, um sich besser zu verkaufen. In anderen Situationen diene die Bezeichnung dazu, die menschlichen Entwickler:innen von Algorithmen von der Verantwortung für negative Effekte freizusprechen (“Leider hat die KI einen Fehler gemacht”). Eine weitere Regulierung von KI sei deshalb nicht nötig, schreibt Reeves in diesem meinungsstarken Beitrag. Stattdessen brauche es ein Recht auf die Freiheit von den Effekten von Algorithmen. Hinter den Technologien stünden immer Menschen, die bestimmten Motivationen und Anreizen folgen. Welche diese sind, darüber sollten wir alle mitbestimmen können, argumentiert Reeves.

Algorithmus erkennt Hautkrebs präziser als Dermatolog:innen
17. April 2019, Berliner Zeitung
Nur sieben von 157 Hautärzt:innen aus zwölf deutschen Universitätskliniken schnitten in einer aktuellen Studie besser in der Erkennung von schwarzem Hautkrebs ab als ein Algorithmus. 14 erzielten gleich gute Ergebnisse und 136 hatten schlechtere Ergebnisse. Im Durchschnitt war der Algorithmus, der mit 12.378 Bildern von Hautveränderungen trainiert wurde, präziser in der Beurteilung der Hauttumore als die Dermatolog:innen. Die DPA-Redakteur:innen Julia Giertz und Stefan Parsch berichten über die Studie des Nationalen Centrums für Tumorerkrankungen (NCT) Heidelberg, des Deutschen Krebsforschungszentrums (DKFZ) und der Universitäts-Hautklinik Heidelberg. Da der Algorithmus nur zwei Diagnosen beherrsche, wogegen Fachärzt:innen bei körperlichen Untersuchungen zwischen mehr als hundert Differentialdiagnosen unterscheiden können, sei die Software keine Konkurrenz, sondern eine sinnvolle Ergänzung. Dass ein Algorithmus bei der Hautkrebserkennung überzeugen kann, zeigte im vergangenen Jahr auch eine andere Studie (siehe Erlesenes #28).

Das war‘s für diese Woche.

Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren

 

 

Sie wollen diesen Newsletter nicht mehr erhalten oder Ihr Newsletter-Profil bearbeiten? Dann klicken Sie bitte auf den Link in Ihrer E-Mail.

 

Eine Abmeldung vom Newsletter-Tracking ist www.bertelsmann-stiftung.de/de/system/datenschutz jederzeit möglich.

 

Wir freuen uns über Ihre Fragen, Anregungen und Tipps:

 

Martin Weigert

Autor

 

Lajla Fetic

Redaktion

 

Bertelsmann Stiftung

Carl-Bertelsmann-Str. 256

33311 Gütersloh

Tel: +49 5241-8181216

Fax: +49 5241-81681216

E-Mail: lajla.fetic@bertelsmann-stiftung.de

 

Die Bertelsmann Stiftung ist eine gemeinnützige Stiftung des privaten Rechtes im Sinne von

Abschnitt 1 des Stiftungsgesetzes für das Land Nordrhein-Westfalen mit Sitz in Gütersloh.

Zuständige Aufsichtsbehörde ist die Bezirksregierung Detmold.

Stifter: Reinhard Mohn

Vorsitzender des Kuratoriums: Prof. Dr. Werner J. Bauer

Vorstand: Dr. Ralph Heck (Vorsitzender), Dr. Brigitte Mohn, Prof. Dr. Daniela Schwarzer