Klicken Sie hier, wenn dieser Newsletter nicht richtig angezeigt wird

 
 
 
 

Erlesenes #109

5 Denkanstöße rund um Algorithmenethik

 

14.05.2020

Willkommen zur 109. Ausgabe der wöchentlichen Algorithmenethik-Lektüreempfehlungen "Erlesenes".

Haben wir durch übermäßigen Toilettenpapiereinkauf algorithmische Systeme vor eine Herausforderung gestellt? Wie setzen Regierungen algorithmische Systeme ein, um über Lockerungen der Corona-Maßnahmen zu entscheiden? Was könnte Künstliche Intelligenz (KI) mit dem Steuersystem zu tun haben? Antworten auf diese und andere Fragen finden sich in der neusten Ausgabe von "Erlesenes"! Diskutieren Sie mit – über Twitter (@algoethik) oder unseren Blog!

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.

Die Pandemie veränderte urplötzlich unser Verhalten – und verwirrt damit den Algorithmus
(Our weird behavior during the pandemic is messing with AI models), 11. Mai 2020, MIT Technology Review
Als Ende Februar 2020 den Ersten allmählich bewusst wurde, dass die Coronavirus-Pandemie ihren Alltag auf den Kopf stellen könnte, veränderte sich ihr Kaufverhalten schlagartig und radikal. Die Folge: Neben leeren Toilettenpapierregalen in Deutschland, Rotweinknappheit in Frankreich auch und vor allem "verwirrte" Algorithmen, die zur Prognose von Konsumverhalten eingesetzt werden. Will Douglas Heaven, Redakteur bei MIT Technology Review, sprach mit einigen Expert:innen über die Herausforderungen für Künstliche Intelligenz (KI), wenn historische Daten über Konsument:innenverhalten plötzlich gar nicht mehr mit der Realität übereinstimmen. So seien beispielsweise die Hitlisten von online verkauften Produkten innerhalb weniger Tage komplett durcheinandergewirbelt worden – mit Konsequenzen für das zunehmend algorithmisch gesteuerte Handels- und Logistiksystem im Hintergrund. Es zeige sich einmal mehr, wieso es wichtig ist, dass Menschen eine Einflussmöglichkeit auf automatisierte Systeme behalten und in Ausnahmesituation die auf Routine trainierten Modelle justieren können. Gerade Unternehmen, die fertige Lösungen einkaufen, seien darauf jedoch nicht vorbereitet gewesen.

US-Bundesstaaten sollen einen intransparenten Algorithmus für Coronavirus-Entscheidungen nutzen
(A Secret Algorithm Is Deciding Who Will Die in America), 7. Mai 2020, Bloomberg
Der Einsatz von statistischen Prognosealgorithmen sei besonders risikoreich, wenn sie drei Kriterien erfüllen: ein wichtiges/sensibles Einsatzfeld, mangelnde Transparenz sowie potenziell schädliche Effekte. Das schreibt die KI-Ethikexpertin und Buchautorin Cathy O’Neil in dieser Bloomberg-Kolumne. Ein den US-Bundesstaaten von der Trump-Administration bereitgestellter Algorithmus zur Vorhersage des weiteren Verlaufs der Coronavirus-Pandemie erfülle diese Kriterien nach Ansicht von O’Neil: Er soll den Bundesstaaten als Werkzeug dienen, um im Zuge der Pandemie eingeführte Einschränkungen zu lockern. Die zuständige Behörde gebe jedoch keinen Einblick in dessen Funktionsweise; und falls sich Prognosen als falsch herausstellen, könnten die Folgen verheerend sein. Statt sich bei der Entscheidungsfindung von enormer Tragweitehinter einem intransparenten algorithmischen Modell zu verstecken, sei jetzt der Zeitpunkt gekommen, um unbequeme öffentliche Diskussionen über die gesellschaftlichen Konsequenzen möglicher nächster Schritte und ihre ungleich verteilten negativen Effekte zu führen, mahnt O’Neil.

Forscher:innen entwickeln eine Methode, bei der KI lernt wie ein Kind
(An AI algorithm inspired by how kids learn is harder to confuse), 6. Mai 2020, MIT Technology Review
Wenn Eltern einem Kleinkind das erste Mal erklären, was ein Hund ist, fangen sie meist nicht mit dem Konzept einer spezifischen Rasse an, sondern beschränken sich zunächst auf die Spezies im Allgemeinen. Differenzierungen unterschiedlicher Rassen kommen später. Forscher:innen der US-amerikanischen Carnegie Mellon University nehmen dieses Prinzip zum Vorbild, um die Fähigkeit von Künstlicher Intelligenz (KI) zur Kategorisierung von Objekten zu verbessern. Das schreibt Karen Hao, Reporterin bei MIT Technology Review. Die Wissenschaftler:innen analysieren, mit welchen Kategorien in Trainingsdaten ein Algorithmus besondere Schwierigkeiten hat. Davon ausgehend werde dann das Training so umgesetzt, dass die schwierigen Kategorien zunächst unter einem übergeordneten Label gruppiert und erst später sukzessive granular vertieft werden. Mit diesem Verfahren seien KI-Modelle geschaffen worden, die im Bestfall sieben Prozent akkurater waren als ohne den Einsatz dieser Lösung.

Wie Fortschritte in der Algorithmeneffizienz erzielt werden können
(AI and Efficiency), 5. Mai 2020, OpenAI
Für das Training eines Algorithmus an Daten der freien Bilddatenbank ImageNet sind im Jahr 2020 44 Mal weniger Rechenkapazitäten notwendig als im Jahr 2012. Zu diesem Schluss kommt eine Analyse von Danny Hernandez und Tom Brown, Forscher bei der Initiative OpenAI, ein Zusammenschluss verschiedener profilierter Akteur:innen des Silicon Valley. Im gleichen Zeitraum seien die Kosten durch bessere Hardware dem bekannten Mooreschen Gesetz folgend "nur" um den Faktor elf gesunken. Gemäß den zwei Fachleuten übertrumpfen die Effizienzgewinne durch Fortschritte bei Künstlicher Intelligenz beim aktuellen Investitionstakt jene, die durch modernere Hardware erreicht werden. Für KI-Wissenschaftler:innen bedeute die rasante Verbesserung der Algorithmeneffizienz, mit gleichen Mitteln und in derselben Zeit mehr Experimente durchführen zu können. Nach Ansicht von Hernandez und Brown würden Politik und Gesetzgeber davon profitieren, das Kriterium der Algorithmeneffizienz bei Entscheidungen zu Regulierung und Investitionen zu berücksichtigen, um einen maximalen Effekt zu erzielen.

KI schlägt fairere Steuerpolitik vor
(An AI can simulate an economy millions of times to create fairer tax policy), 5. Mai 2020, MIT Technology Review
Eine Mischung aus einem progressiven und regressiven Steuersystem, bei dem für Wenig- und Vielverdiener:innen höchste Steuersätze, für Menschen mit mittleren Einkommen aber niedrigste Steuersätze gelten – so lautet das unkonventionelle Resultat einer KI-Simulation von Forscher:innen des Softwarekonzerns Salesforce zur Schaffung einer klügeren Steuerpolitik, die mittel- und langfristig sogar die Schere zwischen Arm und Reich verringern soll, berichtet Will Douglas Heaven bei MIT Technology Review. Zwar handele es sich um eine extrem simple Simulation auf Basis von nur vier fiktiven Arbeitnehmer:innen. Doch eröffnen die Möglichkeiten, mit einem selbstlernenden Algorithmus millionenfach Szenarien durchspielen zu können, Erkenntnisse, die man von "herkömmlichen" Ökonom:innen mitunter nicht bekomme. Optimiert darauf, im Endeffekt sowohl die Produktivität als auch die Ungleichheit zwischen Einkommensgruppen zu minimieren, sei das generierte Resultat um einiges fairer als übliche, von Expert:innen bevorzugte Steuermodelle, so Heaven.

Das war‘s für diese Woche.

Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen "Erlesenes" hier abonnieren.

 

 

Sie wollen diesen Newsletter nicht mehr erhalten oder Ihr Newsletter-Profil bearbeiten? Dann klicken Sie bitte auf den Link in Ihrer E-Mail.

 

Eine Abmeldung vom Newsletter-Tracking ist www.bertelsmann-stiftung.de/de/system/datenschutz jederzeit möglich.

 

Wir freuen uns über Ihre Fragen, Anregungen und Tipps:

 

Martin Weigert

Autor

 

Lajla Fetic

Redaktion

 

Bertelsmann Stiftung

Carl-Bertelsmann-Str. 256

33311 Gütersloh

Tel: +49 5241-8181216

Fax: +49 5241-81681216

E-Mail: lajla.fetic@bertelsmann-stiftung.de

 

Die Bertelsmann Stiftung ist eine gemeinnützige Stiftung des privaten Rechtes im Sinne von

Abschnitt 1 des Stiftungsgesetzes für das Land Nordrhein-Westfalen mit Sitz in Gütersloh.

Zuständige Aufsichtsbehörde ist die Bezirksregierung Detmold.

Stifter: Reinhard Mohn

Vorsitzender des Kuratoriums: Prof. Dr. Werner J. Bauer

Vorstand: Dr. Ralph Heck (Vorsitzender), Dr. Brigitte Mohn, Prof. Dr. Daniela Schwarzer