24.01.2019
Willkommen zur 53. Ausgabe der wöchentlichen Algorithmenethik-Lektüreempfehlungen "Erlesenes".
Der Winter hält Einzug in Deutschland, während wir auch in dieser Ausgabe ausgewählte Debattenbeiträge und Artikel präsentieren. Gehen Sie u. a. den Fragen nach, ob KI Gerichtsurteile fairer machen kann, wie man Ungewissheit in Algorithmen integrieren sollte und wieso es KI-Systemen schwer fällt Behinderungen zu erkennen.
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leserinnen und Lesern. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an carla.hustedt@bertelsmann-stiftung.de zukommen lassen.
Recruiting: Wenn die KI passende Mitarbeiter:innen findet
17. Januar 2019, Golem.de
Die Prozesse der Personalbeschaffung in Unternehmen stammen häufig aus den 60er Jahren – und erweisen sich heutzutage als zunehmend ineffektiv. Der ursprüngliche Weg “post and pray” (Stelle ausschreiben und warten) ist nahezu aussichtslos. Künstliche Intelligenz könnte für Besserung sorgen, wie HR-Experte Markus Kammermeier in diesem Essay bei Golem erörtert. Er schildert an konkreten Beispielen, wie sich die einzelnen Stationen des Recruiting-Vorgangs durch kluge Algorithmen verbessern lassen – von Systemen, die den Personalbedarf errechnen und automatisch passende Stellenausschreibungen generieren, über Chatbots, die ersten Kontakt mit Kandidat:innen aufnehmen und Termine vereinbaren, bis zu Verfahren, die Qualifikationen und Stellenanforderungen abgleichen. Trotz aller Vorteile sei jedoch wichtig, den Datenschutz zu gewährleisten. Zudem müsse eine gesellschaftliche Antwort auf eine elementare, auch von uns kürzlich in einem Blogbeitrag thematisierte Frage gefunden werden: “Darf eine Maschine über die Zukunft eines Menschen entscheiden?”.
Warum erkennen KI-Systeme Menschen mit Behinderungen so schlecht?
17. Januar 2019, Technology Review (Deutschland)
Menschen mit Behinderungen sind bislang bei den Bemühungen, Benachteiligungsprobleme durch Künstliche Intelligenz (KI) zu eliminieren, übersehen worden. Das sagt Shari Trewin, Forscherin zur Barrierefreiheit bei IBM, in diesem ins Deutsche übersetzten Interview mit Karen Hao. Menschen mit Behinderung zu erkennen, sei eine Herausforderung. Denn im Gegensatz zu Aspekten rund um ethnische Gruppen oder Geschlechter lassen sich Behinderungen nicht einfach als zusätzliche Variable mit einer kleinen Anzahl möglicher Werte modellieren. Es gibt viele Formen und Schweregrade – einige sind dauerhaft, andere vorübergehend. Zusätzlich fehlen häufig offizielle Daten zu vorliegenden Behinderungen. Ein Lösungsansatz sei es, schon im Entwicklungsprozess von KI-Systemen die Auswirkungen auf Menschen mit Behinderungen stärker zu berücksichtigen. Etwa durch Prüfung von Fairness sowie die Einbeziehung benachteiligter Gruppen in den Gestaltungsprozess. Richtig umgesetzt könne KI Menschen mit Behinderungen durchaus helfen, so Trewin.
Wie sollen Algorithmen mit ungewissen Entscheidungen umgehen?
(Giving algorithms a sense of uncertainty could make them more ethical), 18. Januar 2019, MIT Technology Review
Menschliche Entscheidungen erfordern häufig ein Abwägen von Vor- und Nachteilen und repräsentieren nicht selten ethische Dilemmas. Künstliche Intelligenz (KI) kann mit der resultierenden Ungewissheit nicht umgehen. Sie ist dafür optimiert, eine konkrete mathematische Aufgabe zu lösen. Hier wird ein Zielkonflikt sichtbar, über den Karen Hao, KI-Reporterin der MIT Technology Review, in diesem Text schreibt. Sie beleuchtet einen möglichen Lösungsansatz, vorgeschlagen von Peter Eckersley, Forschungsdirektor der Initiative Partnership on AI. Eckersleys Ansatz: Ungewissheit als Komponente in den Algorithmus zu integrieren. Das Resultat wäre allerdings, dass in bestimmten Situationen die KI die Entscheidung nicht selbst treffen könnte, sondern diese an den Menschen delegieren müsste. In vielen Szenarien wiederum wäre das wohlmöglich unpragmatisch. Insofern gibt es keine andere Option, als trotz Ungewissheit “einen Teil unserer Kontrolle an die Maschine zu übergeben”, zitiert Hao Roman V. Yampolski, einen anderen KI-Experten.
Künstliche Intelligenz kann Gerichtsurteile fairer machen
(How artificial intelligence can help us make judges less biased), 17. Januar, The Verge
Künstliche Intelligenz (KI) kann dabei helfen, Entscheidungen von Richter:innen von Vorurteilen und kognitiven Verzerrungen zu befreien. Darüber spricht Angela Chen, Wissenschaftsreporterin bei The Verge, mit dem Rechtsexperten Daniel L. Chen, der zu diesem Thema gerade eine Forschungsarbeit (PDF) durchgeführt hat. Laut Chen, zeigen Untersuchungen, dass die Beschlüsse von Richter:innen selbst durch Trivialitäten wie das Wetter oder das Ergebnis eines Fußballspiels beeinflusst werden können. Auch spielen verschiedene kognitive Voreingenommenheiten eine Rolle. KI könne vergangene Arbeiten von Richter:innen analysieren, Vorhersagen über ihre Beschlüsse machen und sie alarmieren, sofern auffällige Muster entstehen. Derartige datenbasierte Vorhersagen seien zwar auch nicht garantiert frei von Vorurteilen und Verzerrungen – aber vielleicht trotzdem ein Stück weit fairer, als wenn der Mensch ganz auf sich gestellt ist.
Kontroverse um Facebook-Geld für Münchner Institut
21. Januar 2019, DW.com
Mit 6,6 Millionen Euro will Facebook ein neues Institut der Technischen Universität München unterstützen, an dem – laut offiziellen Angaben unabhängig und ohne Auflagen – zu Künstlicher Intelligenz und Ethik geforscht werden soll. Helena Kaschel, Journalistin bei DW, fasst einige zum Teil kritische Reaktionen auf den Vorstoß aus dem journalistischen und akademischen Umfeld zusammen. Angriffspunkte gebe es viele: Facebook setze selbst Technologie ein, bei der es noch Probleme in der Anwendung gibt. Auch verwehre das Unternehmen Wissenschaftler:innen Zugriff auf die Daten und Algorithmen und behindere somit die freie Forschung – ein klarer Widerspruch, so Chris Köver, Redakteurin bei netzpolitik.org. Christoph Lütge, Professor am Stiftungslehrstuhl für Wirtschaftsethik der TU München und künftiger Direktor des neuen Instituts, kommt ebenfalls zu Wort. Er bewertet die Finanzierung etwas anders: Er habe keine Bedenken, dass Facebook vorläufig der alleinige Geldgeber ist, solange es keine Vorgaben vonseiten des Unternehmens gebe.
Das war‘s für diese Woche.
Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren.
Mehr zum Thema Algorithmenethik finden Sie auch in unserem Blog: https://algorithmenethik.de/