
(SeaPRwire) – Man braucht keine fortschrittliche Technologie, um Menschen online zu täuschen. Wir haben über 3.000 Highschool-Schülern ein körniges Video von Wahlhelfern gezeigt, die Stimmzettel wegwarfen, um eine Wahl zu manipulieren. Eine aufgeklebte Bildunterschrift, die in roter Schrift und mit Feststelltaste prangte, reichte aus, um die Schüler davon zu überzeugen, dass es in den USA Wahlbetrug gab – obwohl das Filmmaterial aus Russland stammte. Nur drei Schüler haben das herausgefunden.
Wir haben schon lange erkannt, dass billige Fälschungen gefährlicher sind als Deepfakes: fast genauso effektiv, aber viel einfacher herzustellen. Bei den letzten Wahlen wurde sogar mit KI-Werkzeugen, die der breiten Masse zur Verfügung stehen, mit digitalem Klebeband gespleißt, das Debatten über die Diensttauglichkeit von Präsident Joe Biden anheizte.
Jetzt geht die Ära der billigen Fälschungen zu Ende. Neue, mit neuen Videotools erstellte KI-Fälschungen kennzeichnen ein noch tückischeres Informationsgelände. Dank Produkten wie Google’s Veo 3, OpenAI’s Sora 2 und Meta’s Vibes ist KI-Müll jetzt so einfach zu produzieren, dass er sich auf unseren Bildschirmen ausbreitet, unterstützt durch die pauschale Abkehr der Plattformen von Überprüfung. Um im heutigen Internet zurechtzukommen, brauchen wir die Weisheit des Altertums: die uralte Betonung der Zentralität von Reputation im Islam, Judentum, Buddhismus und anderen Glaubensrichtungen.
Fromme Muslime verfolgen die Aussagen Mohammeds anhand einer „Überlieferungskette“ oder „Isnad“ zurück. Religiöse Juden interpretieren talmudische Lehren im Kontext des Rabbiners, der sie intonierte. Tibetische Buddhisten übertragen Lehrsätze mündlich in einer Linie vom Buddha bis in die Gegenwart. All diese Traditionen ermutigen uns, über Informationen nachzudenken, aber erst nachdem wir sie bis zu ihrem Ursprung zurückverfolgt und die Reputation der Weisen beurteilt haben, die dahinter standen.
Reputation ist auch in säkularen Kontexten wichtig: Sie ist der Mechanismus, den wir nutzen, um Entscheidungen zu treffen, wenn wir kein Wissen und keine Expertise haben. Wir verlassen uns auf Reputation, wenn wir einen Therapeuten oder einen Klempner auswählen, ein Restaurant besuchen oder ein Hotel buchen. Wir fragen Leute, denen wir vertrauen, und konsultieren Bewertungen, weil wir erkennen, dass niemand seine Fehler oder Hintergedanken offenlegen wird.
Reputation ist in so vielen Bereichen unseres Lebens entscheidend. Warum also ignorieren die meisten Menschen sie im Internet?
Unser Labor hat die Fähigkeit Tausender junger Menschen getestet, Informationen online zu bewerten. Immer wieder haben wir gesehen, dass sie Inhalte beurteilen, ohne auf deren Herkunft zu achten. Ein Schüler aus dem ländlichen Ohio glaubte das Video über Wahlbetrug, weil er dachte, sein bloßes Auge könne „Betrug in mehreren verschiedenen Bundesstaaten“ erkennen. Ein Schüler aus Pennsylvania schrieb, das Video habe eindeutig „Leute gezeigt, die gefälschte Stimmen in Wahlurnen abgeben“.
Das gleiche Muster wird beim Thema KI noch verstärkt. Eine Lehrerin, die ihre Erfahrungen mit ChatGPT teilte, erzählte, wie sie einen Schüler fragte, woher er wisse, ob Informationen von ChatGPT korrekt seien. Der Schüler schob der Lehrerin das Telefon ins Gesicht: „Schau, es steht doch hier!“ Unsere Pilotstudien in Highschool- und College-Klassenräumen zeigen einen ähnlichen Trend: Viele Schüler vertrauen KI-Chatbots, selbst wenn diese Chatbots den Kontext darüber auslassen, woher die Informationen stammen.
Zu viele Internetnutzer berücksichtigen die Reputation nicht oder verwechseln Glaubwürdigkeit oder Popularität mit geprüften Quellen anstelle von fehlerhaften Hinweisen. Wenn Menschen versuchen, die Reputation zu bewerten, lassen sie sich von leicht manipulierbaren Signalen der Quelle selbst beeinflussen: einer .com-Domain, einer offiziell klingenden Sprache auf der „Über uns“-Seite, der Datenmenge unabhängig von ihrer Qualität oder dem Bauchgefühl, wie etwas aussieht.
Diese Merkmale glitzern wie Katzengold. Jeder kann eine .com-Domain bekommen, auch Hassgruppen. Holocaust-Leugnungsseiten behaupten auf ihren Über uns-Seiten, „Sachinformationen bereitzustellen“. Beiträge mit schicken Diagrammen können schädliche Fehlinformationen enthalten. Und Berichte deuten darauf hin, dass KI so realistisch ist, dass sie uns zwingt, an unseren eigenen Sinnen zu zweifeln: von Anrufen, die wie unsere Eltern klingen, bis hin zu hyperrealistischen Videos von einem Brand, der die Space Needle von Seattle verschlingt.
Diese Informationslandschaft präsentiert eine No-Win-Situation zwischen Unterwerfung und Solipsismus: sich nicht darum zu kümmern, was wahr ist, oder darauf zu bestehen, dass nichts wahr ist. Ersteres macht uns anfällig für Bösewichte, die realistische Clips als Waffe einsetzen. Letzteres beraubt uns guter Informationen. Beide Optionen untergraben eine informierte Bürgerschaft in einer Zeit, in der sie Mangelware ist.
Folgendes können wir tun: Anstatt uns auf den Inhalt selbst zu konzentrieren, fragen wir zuerst, wer dahinter steckt, so wie Glaubensrichtungen Lehren im Kontext dessen betrachten, wer sie gesagt hat.
Und wenn sie geschickt eingesetzt werden, können uns die gleichen Werkzeuge, die uns irreführen, aus diesem Dilemma helfen. Nicht, indem wir unser Denken an die Technologie auslagern – sondern indem wir Technologie nutzen, um Reputation aufzubauen und unser Denken zu schärfen.
Die drei Schüler, die herausfanden, dass das Video über Wahlbetrug aus Russland stammte, haben keine technische Zauberei betrieben. Sie öffneten einfach einen neuen Tab, gaben ein paar ausgewählte Schlüsselwörter ein und fanden Artikel von glaubwürdigen Quellen wie der BBC und Snopes, die es entlarvten. Und mit ein paar cleveren Hinweisen, wie LLMs funktionieren und wie man Prompts effektiv strukturiert, kann KI tatsächlich bei der Überprüfung von Beiträgen in sozialen Medien helfen und fehlenden Kontext liefern.
Die wichtigsten KI-Tools enthalten Wegwerf-Haftungsausschlüsse, die Benutzer auffordern, Informationen zu überprüfen. „Gemini kann Fehler machen, also überprüfe es noch einmal“, sagt Google. „ChatGPT kann Fehler machen. Überprüfe wichtige Informationen“, rät OpenAI. Aber von Generation Alpha bis Boomer haben fast alle Schwierigkeiten, die Informationen zu überprüfen, denen sie begegnen.
Die gute Nachricht ist, dass wir alle besser werden können. Schon ein paar Stunden Unterricht darüber, wie man die Reputation einschätzt, können etwas bewegen – wie wir in Studien gesehen haben, die wir überall durchgeführt haben, von Highschool-Klassenräumen in Illinois und New Jersey bis hin zu College-Kursen in Kalifornien und Massachusetts. Zuvor vertrauten die Schüler ihren Augen, um herauszufinden, ob etwas zuverlässig war. Danach lernten sie, die Reputation der Quelle einzuschätzen. Studien in Australien, Finnland, Israel, der Slowakei und der Schweiz haben ähnliche positive Ergebnisse gezeigt.
Wenn wir nicht mehr zwischen realen und KI-generierten Inhalten unterscheiden können, kann es sich geradezu sinnlos anfühlen, zu entscheiden, wem wir vertrauen sollen. Aber wir können besser mit dem heutigen Wissensökosystem umgehen, indem wir eine alte Lektion verstärken: die Bedeutung der Reputation.
Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.
Branchen: Top-Story, Tagesnachrichten
SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.
“`