Klicken Sie hier, wenn dieser Newsletter nicht richtig angezeigt wird

 
 
 
 

Erlesenes #21

5 Denkanstöße rund um Algorithmenethik

 

19.04.2018

Willkommen zur 21. Ausgabe der wöchentlichen Algorithmenethik-Lektüreempfehlungen "Erlesenes".

Google macht große Fortschritte in der Entwicklung von Spracherkennungssoftware. Damit einher geht ein erhöhtes Missbrauchspotential. Der Philosophie-Professor C. Thi Nguyen erklärt die Unterschiede zwischen den Phänomenen Echokammer und Filterblase. Netflix zeigt, wie sie algorithmische Personalisierung nutzen, um unsere Aufmerksamkeit zu gewinnen. Diese Themen und vieles mehr erwartet Sie in dieser Erlesenes Ausgabe. 

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. 

Wir freuen uns, wenn Sie Erlesenes weiterempfehlen und an interessierte Menschen weiterleiten!
Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de

Das Internet entschuldigt sich ...
(The Internet Apologizes …), 13. April 2018, Select All
Mit dem Internet und seinen führenden Plattformen stimmt etwas nicht. Dieses Gefühl hat in letzter Zeit bei vielen bisherigen Technologieenthusiasten Oberhand genommen. In diesem umfassenden Artikel des Journalisten Noah Kulwin kommen zahlreiche von ihnen zur Sprache: Programmierer, Entwickler und Designer, Gründer, Investoren, Aktivisten – allesamt prägende Köpfe und Architekten der vergangenen Jahrzehnte Internetgeschichte. Sie beschreiben kritisch und selbstkritisch, ausgehend vom heutigen Erkenntnisstand, was schief lief zwischen den idealistischen Tagen der 70er und 80er im Silicon Valley und der großen Ernüchterung, welche die konfliktbeladene digitale Welt im Jahr 2018 bei ihnen und vielen anderen hervorruft. Ungeachtet davon, ob man jede der dargelegten Thesen teilt oder nicht, liefert dieser lehrreiche Artikel eine interessante Insiderperspektive. Zum gleichen Thema siehe auch “Sei nicht böse!” in Algorithmenethik Erlesenes #7.

Über die Schwierigkeit, der Echokammer zu entkommen
(Escape the echo chamber), 9. April 2018, Aeon
Wenn über die Konsequenzen des algorithmisch gesteuerten Informationskonsums in Sozialen Netzwerken diskutiert wird, fallen häufig Begriffe wie “Filterblase” oder “Echokammer”. Gerne werden dabei zwei grundsätzlich verschiedene Phänomene vermischt. In seinem Essay schafft der Philosophieprofessor C. Thi Nguyen Klarheit: Die Filterblase – oder “epistemologische Blase”, wie er es bezeichnet –  sei eine vergleichsweise einfach zu bekämpfende Erscheinung. Bei ihr mangele es Personen schlicht am Zugang zu konträren Fakten. Einfache Änderungen am Algorithmus oder die Bereitstellung von Zusatzinformationen durch Plattformanbieter genügen bereits, um das Phänomen zu bekämpfen. Verheerender und verbreiteter seien dagegen “Echokammern”. Sie treten auf, wenn aktiv die Glaubwürdigkeit konträrer Informationen und das Vertrauen in die entsprechenden Quellen sabotiert wurde. Der beliebte Ruf nach noch mehr Fakten bringe in einem solchen Szenario nichts und könne sogar nach hinten losgehen. Echokammern ähneln einem Kult, so Nguyen. Siehe auch “Ist Social Media gut oder schlecht für die Demokratie?” in Algorithmenethik Erlesenes #10.

Google-Software filtert einzelne Stimmen aus Geräuschkulisse heraus
13. April 2018, Spiegel Online
Das menschliche Gehirn ist vergleichsweise gut darin, andere Menschen zu hören und zu verstehen, selbst wenn es eine ausgeprägte Geräuschkulisse im Hintergrund gibt. Computer beherrschten diesen sogenannten “Cocktailparty-Effekt” bislang nicht. Doch Google-Entwickler sind gerade dabei, dies zu ändern, wie der Journalist Jörg Breithut in diesem Artikel erläutert: Die Ingenieure haben mit einer künstlichen Intelligenz (KI) einzelne Stimmen aus Alltagsvideos isoliert. Zwei Clips zeigen den Algorithmus im Einsatz. Trainiert wurde die KI mit 100.000 Videos, die vor allem Lesungen und Talkrunden zeigten, so Breithut. In seinem Artikel weist er auch auf das offensichtliche Missbrauchspotenzial der Technologie hin: Etwa sei es denkbar, dass mit ihr Parolen einzelner Teilnehmer aus dem Video einer Demonstration herausgefiltert werden. Zudem könnte Kameraüberwachung noch invasiver gestaltet werden.

Debatte über die Frage, ob Roboter einen rechtlichen Status erhalten sollten
(Europe divided over robot “personhood”), 11. April 2018, Politico
Lernfähige, autonome Roboter sollten nach den Vorstellungen von Rechtsexperten im EU-Parlament einen eigenen rechtlichen Status erhalten, in etwa vergleichbar mit der juristischen Person von Unternehmen. Dem gegenüber stehen 156 Experten aus dem Feld der künstlichen Intelligenz (KI), die nichts von einer solchen Idee halten. Janosch Delcker, Korrespondent bei Politico mit Schwerpunkt KI, schildert in seinem Text die unterschiedlichen Positionen, die bei der noch recht jungen Debatte aufeinanderprallen. Im Kern dreht sich alles um eine Frage: Wer ist für die Entscheidungen von autonomen Robotern verantwortlich, wenn deren Handeln von einem für Menschen intransparenten Algorithmus gesteuert wird? Die eine Seite sieht in der Schaffung einer juristischen Person für Roboter eine mögliche Antwort, während Kritiker befürchten, dass dies dazu führen könnte, dass sich Hersteller aus der Verantwortung stehlen. Die Debatte zeigt, wie wichtig es ist, einen interdisziplinären Diskurs zu den ethischen, sozialen und rechtlichen Fragen der Entwicklung von KI anzustoßen. 

Algorithmische Personalisierung von Bildern bei Netflix
(Artwork Personalization at Netflix), 7. Dezember 2017, The Netflix Tech Blog
Der Videodienst Netflix hat sich einen Namen für seine effektiven Empfehlungsalgorithmen gemacht, die den rund 100 Millionen Nutzern personalisierte Vorschläge zu für sie relevanten Inhalten unterbreiten. In diesem Beitrag im Medium Netflix-Blog informiert das Unternehmen über einen bisher wenig thematisierten Einsatz eines Algorithmus: Die Auswahl maßgeschneiderter Bilder, um die Aufmerksamkeit eines individuellen Anwenders zu fangen. Tatsächlich sehen zwei Nutzerinnen zu ein und derselben Filmempfehlung mitunter zwei völlig unterschiedliche visuelle Mittel. Kaum ein Gut in der digitalen Welt ist so hart umkämpft wie die Aufmerksamkeit der Nutzer. Die Strategien, die Unternehmen anwenden, um Nutzer möglichst lange auf ihren Plattformen zu halten, werden jedoch selten so offen dargelegt, wie in diesem Beitrag. Der Text gibt daher wertvolle Einblicke in die Herangehensweise des Unternehmens sowie Versuche, die Effekte der visuellen Personalisierung zu messen. Und er ruft einmal mehr in Erinnerung, wie omnipräsent der Einsatz von Algorithmen in der digitalen Welt mittlerweile ist – selbst da, wo man es nicht unbedingt vermuten würde. 

Das war‘s für diese Woche. 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren

Mehr zum Thema Algorithmenethik finden Sie auch in unserem Blog: https://algorithmenethik.de/

 

 

Sie wollen diesen Newsletter nicht mehr erhalten oder Ihr Newsletter-Profil bearbeiten? Dann klicken Sie bitte auf den Link in Ihrer E-Mail.

 

Eine Abmeldung vom Newsletter-Tracking ist www.bertelsmann-stiftung.de/de/system/datenschutz jederzeit möglich.

 

Wir freuen uns über Ihre Fragen, Anregungen und Tipps:

 

Martin Weigert

Autor

 

Lajla Fetic

Redaktion

 

Bertelsmann Stiftung

Carl-Bertelsmann-Str. 256

33311 Gütersloh

Tel: +49 5241-8181216

Fax: +49 5241-81681216

E-Mail: lajla.fetic@bertelsmann-stiftung.de

 

Die Bertelsmann Stiftung ist eine gemeinnützige Stiftung des privaten Rechtes im Sinne von

Abschnitt 1 des Stiftungsgesetzes für das Land Nordrhein-Westfalen mit Sitz in Gütersloh.

Zuständige Aufsichtsbehörde ist die Bezirksregierung Detmold.

Stifter: Reinhard Mohn

Vorsitzender des Kuratoriums: Prof. Dr. Werner J. Bauer

Vorstand: Dr. Ralph Heck (Vorsitzender), Dr. Brigitte Mohn, Prof. Dr. Daniela Schwarzer