|
„Erlesenes“ ist ein zweiwöchentlicher Newsletter von reframe[Tech] - Algorithmen fürs Gemeinwohl und bietet eine kuratierte Auswahl an wissenschaftlichen Studien, journalistischen Artikeln und Debattenbeiträgen sowie Fundstücken mit Augenzwinkern aus sozialen Medien zum Themenkomplex Algorithmen und KI. Mit „Erlesenes“ wollen wir den Diskurs rund um algorithmische Entscheidungssysteme und ihre Chancen sowie Risiken für das Gemeinwohl einordnen, wir möchten den Blick über den Tellerrand wagen und Perspektiven fernab des dominierenden Diskurses aufgreifen. So wollen wir die Abonnent:innen in dem sich rasch verändernden Themenfeld up-to-date halten. Jede Ausgabe finden Sie auch auf unserem Blog.
Hier geht's zum Blog!
|
|
|
|
|
|
Liebe Leser:innen,
sie kommt, sie kommt nicht: Das Ringen um die KI-Verordnung der EU war in den letzten Wochen ein regelrechter Krimi – zumindest für uns! Nun hat es das erste KI-Gesetz der Welt durch die harten Trilogverhandlungen zwischen dem Europäischen Parlament, dem Rat und der Kommission geschafft. Ende gut alles gut? Nein, die KI-Verordnung bleibt in vielen Bereichen deutlich hinter ihren Möglichkeiten und den erforderlichen Grenzen für einen umfassenden Grundrechtsschutz zurück, so zivilgesellschaftliche Expert:innen. In dieser Erlesenes-Ausgabe beschäftigen wir uns deswegen ausschließlich mit den ersten Einschätzungen zu den getroffenen Regelungen hinsichtlich biometrischer Gesichtserkennung oder Basismodellen, schauen uns die Besonderheit der Triloge und ihre Bedeutung für die Verwässerung parlamentarischer Positionen genauer an und beleuchten die zivilgesellschaftliche Kritik an unzureichendem Schutz der Grundrechte.
Außerdem: Francesca Brias Vision einer ambitionierten und gemeinwohlorientierten europäischen Technologie- und Digitalpolitik. Die KI-Verordnung kann in diesem Bereich nicht der Weisheit letzten Schluss bleiben.
Viel Spaß beim Lesen wünschen
Teresa und Michael
P.S. Ihnen wurde dieser Newsletter weitergeleitet? Hier geht es zum Abo: www.reframetech.de/newsletter/
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de, bei LinkedIn unter @reframe[Tech] – Algorithmen fürs Gemeinwohl oder bei Bluesky unter @reframetech.bsky.social.
|
|
|
|
|
First things first: Das steht (vermutlich) drin
European Union squares the circle on the world’s first AI rulebook, Euractiv, 9.12.2023
Es ist vollbracht: Die letzte Trilog-Verhandlung der KI-Verordnung wurde erfolgreich zum Ende gebracht. Bevor wir uns Bewertungen und Kommentare zum Ergebnis anschauen, fasst Journalist Luca Bertuzzi, der die zähen Verhandlungen auch mitten in der Nacht verfolgte, das Ergebnis zusammen. In der ersten Sitzung wurden insbesondere die Regeln für sogenannte „foundation models“ diskutiert. Wenn solche Modelle eine sehr hohe Schwelle an Rechenleistung überschreiten oder von dem zukünftigen KI-Büro der EU designiert werden, sollen sie zukünftig als „systemisch“ gelten und besonderen Berichts- und Evaluationspflichten unterliegen. In der zweiten Sitzung ging es unter anderem um die Liste an verbotenen KI-Anwendungen. Biometrische Gesichtserkennung soll nun entgegen den Forderungen des EU-Parlaments in bestimmten Fällen doch erlaubt sein. Außerdem wurde eine breite Ausnahme für Fälle nationaler Sicherheit festgelegt. Die Details sind noch nicht bekannt, da der finale Text erst nach dem Trilog ausgearbeitet werden muss – wahrscheinlich frühestens im kommenden Januar.
Hier geht’s zum Artikel!
|
Zivilgesellschaftliche Enttäuschung gegenüber KI-VO-Endspurt
EU AI Act: Deal reached, but too soon to celebrate, EDRi, 09.12.2023
Zivilgesellschaftliche Aktivist:innen haben die gesamten Verhandlungen hinweg kritisch begleitet. Sie kritisierten immer wieder, dass die Vertreter:innen des Parlaments vom Rat dazu gedrängt wurden, verschiedene Bestimmungen in der KI-Verordnung aufzuweichen. Kritik gab es auch an der Länge des Trilogs, der mit 36 Stunden mit dem bisherigen Rekordhalter gleichzog, sodass die Verhandler:innen in teils völlig übermüdetem Zustand Entscheidungen treffen mussten. Ihre Forderungen unterstrichen 70 Organisationen und 34 Expert:innen mit einem letzten offenen Brief. Doch nicht alle Forderungen wurden erfüllt: Kritisiert werden insbesondere die zulässigen Fälle von biometrischer Gesichtserkennung und Emotionenerkennung, unter anderem ausgerechnet im Bereich der Migration. Außerdem führen voraussichtlich breite Ausnahmen für nationale Sicherheit und Strafverfolgungsbehörden dazu, dass gerade in diesen hochsensiblen Bereichen die KI-Verordnung faktisch kaum gelten wird. Abschließend gibt es für Unternehmen große Freiheiten darin, ihre KI-Systeme selbst von der Klasse der Hochrisikosysteme auszunehmen. Sarah Chander von European Digital Rights (EDRi) konstatiert: „Während der Deal einige begrenzte Gewinne für die Menschenrechte verzeichnet, bleibt er nur eine leere Hülle des KI-Gesetztes, das Europa eigentlich bräuchte.“
Hier geht’s zum Artikel!
|
|
|
|
Verliert das Parlament immer im Trilog?
How the European Parliament will vote for and against biometric mass surveillance, LinkedIn, 17.07.2023
Kommissionsvorschläge, Parlamentskomiteeabstimmungen, Berichterstatter:innen – der Gesetzgebungs- und Verhandlungsprozess in Brüssel ist kompliziert. Er mündet oft im sogenannten „Trilog“ – ein eigentlich formell nicht vorgesehener Verhandlungsprozess zwischen dem Europäischen Parlament, dem Rat und der Kommission. Häufig sind diese Verhandlungen der Grund, warum das EU-Parlament wichtige Positionen aufweichen muss, so der ehemalige Politikberater der Grünen im EU-Parlament und Digitalrechteaktivist Joe McNamee. Er sagte im Sommer voraus, dass das eigentlich von einer Mehrheit des Parlaments beschlossene Verbot der biometrischen Gesichtserkennung den Trilog nicht ohne Ausnahmen überleben wird – wie es nun auch gekommen ist. Ein Grund dafür ist, dass der Trilog geheim stattfindet. Informationen, auf die die Öffentlichkeit reagieren könnte, sickern, wenn überhaupt, nur aufgrund von Leaks nach draußen. Das macht es schwierig, öffentlichen Druck aufzubauen – was das Parlament jedoch oftmals in den Verhandlungen gebrauchen könnte. Der teils sarkastische Text zeigt auf, wie Verhandlungsstrukturen auch die Inhalte von KI-Regulierung beeinflussen.
Hier geht's zum Artikel!
|
Der Einfluss der Techgiganten auf die KI-Verordnung
Big Tech lobbying is derailing the AI Act, Social Europe, 24.11.2023
Vor diesem Trilog war noch gar nicht absehbar, ob er daran nicht scheitern würde: Als besonderes Streitthema hatte sich in den Wochen zuvor die Regulierung von „foundation models“ erwiesen. Bram Vranken, Forscher am Corporate Europe Observatory, stellt in diesem Artikel dar, wie sich große Internetunternehmen gegen jegliche Regeln positionieren. Obwohl diese sich öffentlich oft zu der Notwendigkeit von Regulierung bekennen, versuchen sie in nichtöffentlichen Gesprächen politische Entscheidungsträger:innen vom Gegenteil zu überzeugen. Die Unternehmen wollen hierbei insbesondere ihre bestehenden, dominanten Positionen im Markt verteidigen. Interessant ist, dass dieses Mal nicht nur US-amerikanische Firmen Lobbying betrieben haben: Auch nationale Vorreiter:innen im Bereich „foundation models“, wie Frankreichs Mistral AI und Deutschlands Aleph Alpha, setzten sich entsprechend ein. Ganz ohne Regeln kommen „foundation models“ in KI-Verordnung nun nicht davon. Allerdings hat das Lobbying dazu beigetragen, dass nur sehr grundsätzliche Bestimmungen gelten und diese auch nur auf eine (sehr) kleine Gruppe „systemischer“ Modelle Anwendung finden werden.
Hier geht's zum Artikel!
|
|
|
|
“Big Democracy” statt “Big Tech” oder “Big State”
Open, Sovereign, Independent AI: Europe’s greatest challenge?, Medium, 11.12.2023
Wie geht es nach der KI-Verordnung weiter? Francesca Bria schlägt in ihrer lesenswerten Keynote, die sie inmitten des letzten Trilogs hielt, eine ambitioniertere europäische Technologie- und Digitalstrategie vor, um zukünftig die digitale Souveränität Europas zu gewährleisten. Die Vision besteht darin, ein „Big Democracy“-Paradigma als Alternative zum amerikanischen „Big Tech“- und chinesischen „Big State“-Modell zu schaffen und so einen sozialeren Technologieansatz dem heutigen Technokapitalismus entgegenzusetzen. Dafür müssen erstens die europäischen Digitalregulierungsansätze konsequent durchgesetzt werden, um die Marktmacht großer Tech-Unternehmen zu begrenzen und Verbraucherrechte zu schützen. Zweitens plädiert Bria für die Einführung einer umfassenden EU-Digitalindustriepolitik, die den europäischen Technologiesektor stärkt: Nur durch ein eigenes Ökosystem mit „open source“ und datenschutzfreundlichen Technologien könnten die Abhängigkeiten von importierten Technologien verringert werden. Die dritte Säule legt den Fokus darauf, Innovation im öffentlichen Interesse voranzutreiben. Bria schlägt vor, KI-Systeme als offene digitale Gemeingüter zu verwalten, um Transparenz, demokratische Rechenschaftspflicht und öffentliche Aufsicht sicherzustellen. Das übergeordnete Ziel bleibt, eine Zukunft zu gestalten, in der Technologie zu sozialer und ökologischer Gerechtigkeit beiträgt und Ungleichheiten reduziert. Zur Unterstützung dieser Bemühungen schlägt sie vor, u. a. einen EU-Digitalsouvereignitätsfonds in Höhe von zehn Milliarden Euro zu schaffen.
Hier geht’s zum Transkript der Rede!
|
|
|
|
|
Follow-Empfehlung
Mher Hakobyan ist Advocacy Advisor bei Amnesty International, koordiniert dort die Arbeit zur KI-Verordnung und twittert auch dazu.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|