Tech-Unternehmen unternehmen Maßnahmen gegen Fehlinformationen durch KI bei Wahlen. Wird es einen Unterschied machen?

Meta verkündete am Mittwoch (8. November), dass es für politische Anzeigen, die digital verfälscht wurden, unter Verwendung von KI oder anderen Technologien, die irreführend sein könnten, Kennzeichnungen verlangen wird.

Die Ankündigung erfolgt einen Tag, nachdem Microsoft verkündete, ebenfalls eine Reihe von Maßnahmen zu ergreifen, um Wahlen zu schützen, darunter Werkzeuge zum Wasserzeichen von KI-generiertem Inhalt und die Bereitstellung eines “Campaign Success Teams”, um politische Kampagnen zu beraten über KI, Cybersicherheit und andere relevante Themen.

Im nächsten Jahr wird es die bedeutendsten Wahlen dieses Jahrhunderts geben, mit den USA, Indien, dem Vereinigten Königreich, Mexiko, Indonesien und Taiwan, die alle an die Urnen gehen. Obwohl viele besorgt sind über die Auswirkungen von Deepfakes und Fehlinformationen auf Wahlen, betonen viele Experten, dass der Nachweis für deren Auswirkungen auf Wahlen bisher bestenfalls begrenzt ist. Experten begrüßen die von Technologieunternehmen ergriffenen Maßnahmen zum Schutz der Wahlintegrität, aber sagen, dass für die Bekämpfung von Fehlinformationen grundlegendere Änderungen der politischen Systeme erforderlich sein werden.

Wie KI Wahlen beeinflussen könnte

Technologieunternehmen stehen unter Beobachtung nach der Rolle, die sie bei früheren Wahlen spielten. Ein 2021 von der Online-Interessenvertretung Avaaz veröffentlichter Bericht fand heraus, dass Meta durch das Abwarten bis zum Monat vor der US-Präsidentschaftswahl 2020, seine Algorithmen zu ändern, Fehlinformationen erlaubte, sich auf seiner Plattform zu verbreiten. Meta wurde auch kritisiert dafür, Inhalte zu fördern, die die Gültigkeit der 2022 brasilianischen Wahl in Frage stellten und für die Verstärkung von Inhalten, die möglicherweise zu Menschenrechtsverletzungen begangen gegen die Rohingya-Ethnie in Myanmar beigetragen haben.

In den letzten Jahren hat sich die KI-Entwicklung schnell weiterentwickelt. Generative KI – die es Nutzern ermöglicht, Text, Audio und Video zu generieren – trat aus der Anonymität mit der Veröffentlichung von ChatGPT von OpenAI im November 2022.

Generative KI wurde bereits mehrfach in politischen US-Werbeanzeigen verwendet, obwohl in jedem Fall verstanden wurde, dass KI verwendet wurde. Im April veröffentlichte die Republikanische Partei eine KI-generierte Werbung, die zeigen sollte, was passieren könnte, wenn Präsident Joe Biden wiedergewählt würde. Im Juni postete ein X-Wahlkampfkonto für Ron DeSantis, den republikanischen Gouverneur von Florida und Präsidentschaftskandidaten, ein Video, das KI-generierte Bilder von dem ehemaligen Präsidenten Donald Trump umarmend Dr. Anthony Fauci enthielt.

Allerdings kommen Studien konsequent zu dem Ergebnis, dass Fehlinformationen die Ergebnisse früherer US-Wahlen nicht messbar verändert haben, sagt Andreas Jungherr, Professor für Politikwissenschaft an der Universität Bamberg in Deutschland, der anmerkt, dass Wissenschaftler aus anderen Disziplinen wie Medienwissenschaft und Psychologie Fehlinformationen bei Wahlen mehr Glaubwürdigkeit beimessen tendieren.

Zum Beispiel fand eine Veröffentlichung in Nature im Jahr 2023 “keinen Nachweis für einen sinnvollen Zusammenhang zwischen der Exposition gegenüber der russischen Einflusskampagne [2016] und Änderungen in Einstellungen, Polarisierung oder Wahlverhalten.”

Oft überschätzen Menschen die Auswirkungen von Fehlinformationen, weil sie sowohl überschätzen, wie einfach es ist, die Ansichten der Menschen zu polarisierten Themen wie dem Wahlverhalten zu ändern, als auch, wie fähig Fehlinformations-Technologien wie KI sind, sagt Jungherr.

Obwohl die Wahrscheinlichkeit, dass ein Stück KI-generierte Fehlinformation die öffentliche Meinung genug beeinflussen könnte, um Wahlen zu beeinflussen, sehr gering ist, könnte KI die Wahlen und Politik im weiteren Sinne in Zukunft dennoch auf schädliche Weise beeinflussen, sagt Elizabeth Seger, Forscherin am Zentrum für die Steuerung von KI, einer in Großbritannien ansässigen Forschungsorganisation. In Zukunft könnten hochpersonalisierte KI-gestützte Zielgruppenansprache und extrem überzeugende KI-Agenten zur Durchführung von Massenbeeinflussungskampagnen eingesetzt werden. Und 2024 könnte allein die Existenz von Deepfakes das Vertrauen der Menschen in wichtige Informationsquellen untergraben, sagt Seger.

Dies ist bereits geschehen. 2019 wurde ein Vorwurf, dass ein Video von Ali Bongo, damals Präsident von Gabun, gefälscht war, genutzt, um einen versuchten Staatsstreich zu rechtfertigen. Später im selben Jahr wurde der Einfluss eines vermuteten Videos eines malaysischen Kabinettsministers bei einem sexuellen Akt mit einem politischen Mitarbeiter neutralisiert durch Behauptungen, dass das Video durch KI verändert wurde.

“Ein Risiko, das oft übersehen wird, aber bei dieser Wahl wahrscheinlicher eintreten wird, ist nicht, dass generative KI verwendet wird, um Deepfakes zu produzieren, die Menschen dazu bringen, zu glauben, dass Kandidat X etwas Schreckliches getan hat”, sagt Seger. “Sondern dass die bloße Existenz dieser Technologien genutzt wird, um den Wert von Beweisen in Frage zu stellen und das Vertrauen in wichtige Informationsquellen zu untergraben.”

Schutz von Wahlen

Bislang haben Regierungen nur begrenzte Maßnahmen ergriffen, um die Auswirkungen von KI auf Wahlen abzumildern. In den USA wurde im Mai ein Gesetzesentwurf im Kongress eingebracht, der politische Anzeigen mit KI-generierten Bildern oder Videos zur Kennzeichnung verpflichten würde. Im August forderte die Federal Election Commission Stellungnahmen an, ob sie die Vorschrift ändern sollte, die politische Anzeigen vom irreführenden Darstellen anderer Kandidaten oder politischer Parteien verbietet, um bewusst täuschende KI einzubeziehen, hat aber bisher keine Maßnahmen ergriffen.

Technologieunternehmen, die aufgrund von Metas Rolle bei der Wahl 2020 um ihren Ruf fürchten, beginnen nun Maßnahmen zu ergreifen. Im Juli sicherte das Weiße Haus freiwillige Zusagen ab, die darauf abzielen, sicherzustellen, dass KI-Systeme sicher und vertrauenswürdig sind, von sieben führenden KI-Unternehmen, darunter Meta und Microsoft. Eine der Zusagen war, Wasserzeichen- oder Herkunftsnachweistechniken für visuellen und auditive Inhalte zu entwickeln und einzusetzen, die mit KI generiert wurden. Weitere acht Unternehmen schlossen sich den Zusagen im September an.

Metas und Microsofts Schritte in dieser Woche folgen einer Ankündigung von Alphabet, der Muttergesellschaft von Google und YouTube, dass sie für politische Anzeigen, die synthetisch generierte Inhalte enthalten, die reale Personen oder Ereignisse auf unechte Weise darstellen, sichtbare Offenlegungen verlangen würde.

Arvind Narayanan und Sayash Kapoor, ein Professor und Forscher an der Princeton University, haben argumentiert, dass leistungsfähigere KI das Fehlinformationsproblem nicht verschlimmern wird, weil irreführende Inhalte bereits relativ einfach zu produzieren sind und jeder, der irreführende Inhalte produzieren möchte, dies bereits tun kann.