Die gesellschaftliche Auseinandersetzung mit Algorithmen und Künstlicher Intelligenz (KI) hat in Deutschland und Europa rasant an Fahrt aufgenommen. Staatliche wie privatwirtschaftliche Akteure, Zivilgesellschaft und Wissenschaft beschäftigen sich verstärkt mit der Frage, welche Auswirkungen die Automatisierung von Entscheidungsprozessen auf die Gesellschaft und unser Zusammenleben hat. Neben interdisziplinären Gremien auf nationaler Ebene wie der KI-Enquete des deutschen Bundestages und der Datenethikkommission der Bundesregierung hat auch die EU-Kommission das Thema als Priorität erkannt.
Drei Herausforderungen auf dem Weg zum chancengerechten Algorithmeneinsatz
Wir haben die letzten Monate genutzt, um unsere eigene Arbeit und den Diskurs zum Thema kritisch unter die Lupe zu nehmen. Dabei haben wir drei Hürden identifiziert, die es auf dem Weg zu chancengerechterer Teilhabe durch das Zusammenspiel von Mensch und algorithmischem System zu überwinden gilt:
1. Kaum konkrete Lösungen zu Risikominimierung: Es gibt zahlreiche Ansätze, wie Missbrauch algorithmischer Systeme verhindert und Fehler sowie unerwünschte Nebeneffekte zu Lasten des Gemeinwohls minimiert werden können. Meist fehlen jedoch konkrete Konzepte, wie sich diese Ideen umsetzen lassen. Relevantes Wissen aus bestehenden Kontrollsystemen der analogen Welt wird bei der Entwicklung von Lösungen zur Überprüfung algorithmischer Systeme noch zu wenig beachtet.
2. Monopolisierungstendenzen und fehlende Vielfalt in der Tech-Branche: Die Konzentration von Daten, Rechenleistung und Talenten auf wenige profitorientierte Akteure ist insbesondere bei der Entwicklung von KI eine große Gefahr für das Gemeinwohl. Zusammen mit einer homogenen Entwickler-Community verhindern solche Monopolstrukturen, dass algorithmische Technologien gesellschaftliche Vielfalt ausreichend abbilden, und können dazu führen, dass diskriminierende Muster verstärkt werden.
3. Gemeinwohl-Vakuum: Algorithmische Innovation wird fast ausschließlich aus wirtschaftlichen Motiven vorangetrieben. Es fehlt an greifbaren Positivbeispielen für Algorithmen im Dienst des Gemeinwohls, stattdessen bestimmt der Schutz vor möglichen Gefahren den Diskurs. Erklären lässt sich dies vor allem durch mangelnde Sensibilität und lange Untätigkeit in öffentlichem Sektor und Zivilgesellschaft sowie durch ein ausgeprägtes Risikobewusstsein in der breiten Bevölkerung.
Arbeit zur Kontrolle algorithmischer Systeme wird fortgeführt
In der ersten Projektphase von 2017 bis 2019 haben wir uns vor allem darauf konzentriert, die gesellschaftlichen Folgen algorithmischer Systeme zu analysieren und ihren potenziellen Schaden für das Gemeinwohl zu begrenzen. Beispielsweise durch die Systematisierung von Lösungsansätzen, die Förderung zivilgesellschaftlicher Wächterorganisationen wie AlgorithmWatch oder durch die Entwicklung von Richtlinien für den ethischen Einsatz algorithmischer Systeme, den Algo.Rules. Im Handlungsfeld „Kontrolle“ arbeiten wir auch künftig daran, Risiken algorithmischer Systeme durch eine gemeinwohlförderliche Rahmensetzung zu minimieren. Wir wollen unter anderem untersuchen, wie sich ethische Leitlinien in der Praxis umsetzen lassen und welche Rolle dabei technische Standardsetzung spielen kann. Unser Motto dabei: Raus aus der Digital-Blase! Etablierte Lösungsansätze aus anderen Politikfeldern wollen wir verstärkt als Inspiration nutzen.
Kein „Techno-Solutionism“: Wir setzen uns ein für mehr Vielfalt und gesellschaftlichen Nutzen
Algorithmische Systeme lernen aus Informationen über die Vergangenheit und reproduzieren so bestehende gesellschaftliche Normen. Häufig sind es so bereits benachteiligte Gruppen, die von der Diskriminierung durch automatisierte Entscheidungsprozesse betroffen sind. Doch können wir die Technologie auch nutzen, um Diversität und Gleichberechtigung zu fördern? Wie lässt sich sicherstellen, dass auch Menschen, die nicht unserem Verständnis von „Normalität“ entsprechen, von digitaler Innovation profitieren? Wie vermeiden wir monopolistische Strukturen bei der Entwicklung von algorithmischen Systemen? Mit diesen Fragen werden wir uns ab sofort im Handlungsfeld „Vielfalt“ beschäftigen.
Zusätzlich wollen wir zukünftig dem Gemeinwohl-Vakuum begegnen und im Handlungsfeld „Chancen fürs Gemeinwohl“ untersuchen, wie Algorithmen uns zu einer besseren Gesellschaft verhelfen können. KI wird häufig mit Magie assoziiert und, auch aufgrund eines fehlenden Verständnisses für ihre Funktionsweise, als einfache Lösung für komplexe Probleme verstanden. Das kann dazu führen, dass die Technologie zur Bekämpfung von Symptomen eingesetzt wird, während die wahren Ursachen der Probleme ungelöst bleiben. Um nicht in die Falle dieses als „Techno-Solutionism“ bezeichneten Phänomens zu tappen, starten wir die Diskussion über algorithmische Innovation mit der Analyse analoger Probleme und der Entwicklung von gesellschaftlichen Visionen, statt allein von der Technologie aus zu denken: In was für einer Gesellschaft wollen wir leben? Welche Hindernisse bestehen zwischen gesellschaftlichen Visionen und aktuellen Realitäten? Wie kann Technologie uns helfen, diese Hindernisse zu überwinden und den Visionen näher zu kommen? Zur Beantwortung dieser Fragen arbeiten wir eng mit anderen Projekten der Bertelsmann Stiftung und externen Partnern zusammen, die über Expertise zu bestehenden gesellschaftlichen Herausforderungen verfügen. Geplant sind beispielsweise Analysen aus den Bereichen Kinder- und Jugendschutz, Bildung und Pflege.
Die Arbeit der letzten zweieinhalb Jahre wäre nicht möglich gewesen ohne die vielen Partner:innen aus unterschiedlichsten Bereichen. Wir danken allen, die sich gemeinsam mit uns auf den Weg gemacht haben, und freuen uns darauf, auch zukünftig in alten und neuen Kooperationen daran zu arbeiten, dass Algorithmen dem Gemeinwohl dienen!