Klicken Sie hier, wenn dieser Newsletter nicht richtig angezeigt wird

 
 
 
 

Erlesenes #58

5 Denkanstöße rund um Algorithmenethik

 

28.02.2019

Willkommen zur 58. Ausgabe der wöchentlichen Algorithmenethik-Lektüreempfehlungen "Erlesenes".

Helau oder Alaaf? Welchem Narrenruf Sie auch in den kommenden Tagen folgen, diese Woche gibt es wieder Kamelle der algorithmischen Art für alle: Kann Künstliche Intelligenz (KI) das Erfinden neu erfinden? Wie werden Algorithmen Ihren Einkauf im Supermarkt vorhersagen? Wie können wir verhindern, dass algorithmische Entscheidungssysteme soziale Spannungen in der Gesellschaft verstärken?

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leserinnen und Lesern. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an carla.hustedt@bertelsmann-stiftung.de zukommen lassen. 

Künstliche Intelligenz (KI) soll das Erfinden neu erfinden 
(AI is reinventing the way we invent), 15. Februar 2019, MIT Technology Review (kostenfreie Registrierung notwendig oder Link bitte im Icognito-Modus des Browsers öffnen)
Die Zahl der Entdeckungen großer Ideen und revolutionärer Verfahren in der Spitzentechnologie stagniert seit einiger Zeit. Der Bereich steckt in der Krise – und Künstliche Intelligenz (KI)  könnte die erhoffte Rettung sein. So lautet die Erkenntnis dieses Berichts von David Rotman, Redakteur beim MIT Technology Review. KI böte sich an, ein Dilemma der modernen Spitzentechnologie zu lösen: Weitreichende Erfindungen bedürften immer Zeit und Know-how. Dafür würde eine wachsende Zahl von Forscher:innen benötigt, was zu explodierenden Kosten führe. KI könnte genau dort ansetzen, wo es die menschlichen Fähigkeiten sinnvoll ergänzt: In der blitzschnellen Mustererkennung sowie im unkonventionellen Abweichen vom menschlichen Denkverhalten bei der Suche nach neuen Lösungswegen, wie beispielsweise die Spiele-KI AlphaGo zeigt. Der “AlphaGo-Moment” etwa bei der Entdeckung eines neuen pharmazeutischen Wirkstoffs oder Materials stehe zwar noch aus. Aber das könne sich sehr bald ändern.

Wie KI-Forscher:innen sich der Algorithmenethik annähern sollten 
(In Favor of Developing Ethical Best Practices in AI Research), 21. Februar 2019, Stanford AI Lab Blog
Als Doktorand:innen im Bereich Künstliche Intelligenz (KI) an der angesehenen Stanford Universität seien sie bislang nicht explizit aufgefordert worden, sich offen und enthusiastisch mit Fragen der Algorithmenethik zu beschäftigen, konstatieren Shushman Choudhury, Michelle Lee und Andrey Kurenkov in diesem Beitrag im Stanford AI Lab Blog. Dies müsse sich ändern. Wer zu KI forscht, sollte verpflichtet sein, sich mit den ethischen Herausforderungen und Risiken des eigenen Schaffens vertraut und das Thema publik zu machen. Wie man dabei am besten vorgeht, dazu hat das Trio eine Reihe von Vorschlägen –  angefangen von der Recherche zu bekannten Fällen ethisch problematischer Entscheidungen von Algorithmen, über das Hinzufügen von Ethiksektionen zu Forschungspapieren bis hin zur Nutzung existierender berufsethischer Richtlinien, die helfen, Facetten der Algorithmenethik in der täglichen Arbeit einfließen zu lassen. Hinweis in eigener Sache: Derzeit entwickeln wir zusammen mit dem Think Tank iRights.lab einen Regelkathalog für die ethische Gestaltung algorithmischer Systeme.

Verborgene Bewertungen sichtbar machen
19. Februar 2018, ETH News
Forscher haben einen Algorithmus entwickelt, der in der Lage ist, mit hoher Treffsicherheit individuelle Entscheidungen von Menschen vorherzusagen. Die Wissenschaftler der ETH Zürich, der Universität Zürich und der Columbia University untersuchten dafür die Entscheidungsvorgänge von Menschen in Supermärkten, wie Peter Rüegg bei ETH News schreibt. Um Kapazität zu sparen, lege das Gehirn für Einkäufe ein kontextabhängiges Bewertungsraster an, das aufgrund früherer Erfahrungen und Erinnerungen einzelne Lebensmittel bewertet – beispielsweise darüber, dass man zuvor gute Erfahrungen mit den Orangen und schlechte mit den Grapefruits des Ladens gemacht habe. Die Gesamtverteilung von Vorlieben lasse sich durch Befragungen erheben, mathematisch beschreiben und mit dem Algorithmus der Forscher für Prognosen nutzen. Das Computermodell könne überall dort eingesetzt werden, wo Personen subjektive Entscheidungen treffen. Einer der beteiligten Forscher, Rafael Polanía, wolle es nun nutzen, um herauszufinden, wie Personen ihre Auswahl in Bezug auf die Ernährung treffen.

Algorithmische Entscheidungen und soziale Spannungen 
22. Februar 2019, Medium
Tragen algorithmische Entscheidungen dazu bei, Diskriminierung und Spannungen in bereits gespaltenen Gesellschaften zu verstärken? Diese Frage beschäftigt die Ethikberaterin und KI-Expertin Dorothea Baur. Wie Baur erläutert, charakterisiert gespaltene Gesellschaften, dass einzelne, beispielsweise ethnische oder religiöse Gruppen durch verschiedene zusammenfallende Merkmale (“Cleavage”) von anderen Gruppen getrennt sind. Ein Algorithmus könne aus den vorliegenden Daten und ausgehend von Korrelationen Rückschlüsse, beispielsweise auf die Ethnie, ziehen, selbst wenn dazu im Sinne der Vermeidung von Diskriminierung bewusst keine Daten erhoben wurden. Baur nennt einige Vorschläge, wie sich diese Problematik verhindern ließe. Am Ende sei die Vision aber so simpel wie grundlegend:  Nur in einer Gesellschaft, in der alle Mitglieder echte Freiheit genießen und Chancengleichheit in der Wahl ihres Lebensstils und ihrer Identität besitzen, sei die sichere und verantwortungsvolle Anwendung von Algorithmen möglich.

Die strukturelle Dimension der Risiken Künstlicher Intelligenz (KI)
(Thinking About Risks From AI: Accidents, Misuse and Structure), 11. Februar 2019, Lawfare
Die Debatte über die Risiken Künstlicher Intelligenz (KI) greift inhaltlich häufig zu kurz, argumentieren die Politikwissenschaftler und KI-Experten Remco Zwetsloot und Allan Dafoe. Zumeist beschränke sich der Blick auf die Herausforderungen durch den missbräuchlichen und unethischen Einsatz sowie auf Gefahren, die aus Fehlern in der Anwendung von KI entstehen. Das Autorenduo spricht sich deshalb für einen zusätzlichen Fokus auf die strukturelle Dimension aus: Die Anwendung von KI setze Anreize und forme die Struktur der Systeme, in denen sie genutzt wird. Als Analogie führen die Autoren an, dass etwa die Erfindung der Eisenbahn Einfluss auf die Tragweite des Erstens Weltkriegs hatte, ohne dass das von ihren Befürwortern angestrebt war. Um strukturelle KI-Risiken stärker zu berücksichtigen, plädieren die Wissenschaftler für eine stärkere Einbeziehung von Historiker:innen und Sozialwissenschaftler:innen in die Debatte sowie für die Schaffung anpassungsfähiger kollektiver Normen und Institutionen.

Das war‘s für diese Woche. 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren

Mehr zum Thema Algorithmenethik finden Sie auch in unserem Blog: https://algorithmenethik.de/

 

 

Sie wollen diesen Newsletter nicht mehr erhalten oder Ihr Newsletter-Profil bearbeiten? Dann klicken Sie bitte auf den Link in Ihrer E-Mail.

 

Eine Abmeldung vom Newsletter-Tracking ist www.bertelsmann-stiftung.de/de/system/datenschutz jederzeit möglich.

 

Wir freuen uns über Ihre Fragen, Anregungen und Tipps:

 

Martin Weigert

Autor

 

Lajla Fetic

Redaktion

 

Bertelsmann Stiftung

Carl-Bertelsmann-Str. 256

33311 Gütersloh

Tel: +49 5241-8181216

Fax: +49 5241-81681216

E-Mail: lajla.fetic@bertelsmann-stiftung.de

 

Die Bertelsmann Stiftung ist eine gemeinnützige Stiftung des privaten Rechtes im Sinne von

Abschnitt 1 des Stiftungsgesetzes für das Land Nordrhein-Westfalen mit Sitz in Gütersloh.

Zuständige Aufsichtsbehörde ist die Bezirksregierung Detmold.

Stifter: Reinhard Mohn

Vorsitzender des Kuratoriums: Prof. Dr. Werner J. Bauer

Vorstand: Dr. Ralph Heck (Vorsitzender), Dr. Brigitte Mohn, Prof. Dr. Daniela Schwarzer