Wir brauchen eine globale Bewegung zum Verbot superintelligenter KI

Futuristic Globe with connection network

(SeaPRwire) –   Letzte Woche rief eine Koalition aus wissenschaftlichen, religiösen und politischen Führungspersönlichkeiten zu einem globalen Verbot der Entwicklung von Superintelligenz auf: KI, die Menschen in allen kognitiven Aufgaben übertrifft. Ich war einer der ersten Unterzeichner, zusammen mit Nobelpreisträgern wie Geoffrey Hinton; dem weltweit meistzitierten KI-Wissenschaftler Yoshua Bengio; dem ehemaligen Berater von Präsident Donald Trump Steve Bannon; dem ehemaligen Vorsitzenden der Joint Chiefs of Staff Mike Mullen; sowie Prinz Harry und Meghan, Herzogin von Sussex.

Was bringt diese Bewegung zusammen? Die dringende, existenzielle Bedrohung. Technologieunternehmen investieren Milliarden von Dollar, um Superintelligenz so schnell wie möglich zu erreichen. Niemand weiß, wie man KIs kontrolliert, die weitaus kompetenter sind als jeder Mensch, doch wir kommen der Entwicklung immer näher, wobei viele Experten Superintelligenz im aktuellen Tempo in den nächsten 5 Jahren erwarten.

Aus diesem Grund warnen führende KI-Wissenschaftler, dass die Entwicklung von Superintelligenz zum Aussterben der Menschheit führen könnte.

Die Notwendigkeit eines Verbots von Superintelligenz

Sobald wir Maschinen entwickeln, die uns in allen Bereichen deutlich überlegener sind, werden wir höchstwahrscheinlich entweder der Person oder dem Land ausgeliefert sein, die sie kontrollieren. Oder wir werden den superintelligenten Maschinen selbst ausgeliefert sein, da derzeit kein Land, kein Unternehmen und keine Person weiß, wie man sie kontrolliert. Theoretisch würde eine superintelligente KI ihre eigenen Ziele verfolgen, und wenn diese Ziele unvereinbar mit der Erhaltung menschlichen Lebens sind, werden wir vernichtet.

Erschwerend kommt hinzu, dass KI-Entwickler nicht verstehen, wie aktuelle leistungsstarke KI-Systeme tatsächlich funktionieren. Im Gegensatz zu Brücken oder Kraftwerken, die nach präzisen menschlichen Spezifikationen entworfen werden, entstehen die heutigen KI-Systeme aus riesigen Datensätzen durch Prozesse, die ihre eigenen Schöpfer nicht interpretieren können. Selbst Anthropic CEO Dario Amodei gibt zu, dass wir nur „3 % davon verstehen, wie sie funktionieren.“

Trotz dieser Gefahr bleibt Superintelligenz das Hauptziel führender KI-Unternehmen: OpenAI, Anthropic, Google DeepMind, Meta, xAI, DeepSeek. Und angesichts der in die Höhe schnellenden Bewertung dieser Unternehmen werden sie nicht von selbst aufhören.

Regierungen weltweit müssen eingreifen, bevor es zu spät ist. Doch die internationale Lage ist nicht ermutigend. Wir leben in einer Ära zunehmender geopolitischer Spannungen, geprägt von Rivalitäten zwischen den U.S. und China. Länder eilen, Milliarden in Rechenzentren zu investieren, um KI zu betreiben, während die Entwicklung und der Einsatz gefährlicher KI-Systeme weniger reguliert bleiben als die Eröffnung eines neuen Restaurants oder der Bau eines Hauses.

Wie man Superintelligenz verbietet

Ist in diesem Klima ein internationales Verbot der Entwicklung von Superintelligenz überhaupt möglich?

Ja, denn wir haben solche globalen Verbote schon einmal erreicht.

Im Jahr 1985 erfuhr die Welt dank dreier Wissenschaftler des British Antarctic Survey, dass sich ein Loch in der Ozonschicht über der Antarktis befand. Die Schuldigen für dieses atmosphärische Verbrechen waren Fluorchlorkohlenwasserstoffe (FCKW), allgegenwärtige Industriechemikalien. Wenn nichts unternommen würde, würde das Loch weiterwachsen, und Millionen Menschen würden Hautkrebs bekommen oder erblinden, weil der UV-Schutz fehlte.

Stattdessen handelten Millionen. Wissenschaftler machten die Bedrohung mit farbigen Satellitenbildern und einer klaren Diskussion der gesundheitlichen Folgen greifbar. NGOs organisierten Boykotte großer Marken und forderten Tausende besorgter Bürger auf, Protestbriefe zu schreiben. Schulen weltweit führten Bildungsprogramme durch, und die UN unterstützte öffentliche Aufklärungskampagnen.

Im Jahr 1987, nur zwei Jahre nachdem das Ozonloch öffentlich bekannt gemacht worden war, unterzeichnete jedes existierende Land das Montrealer Protokoll. Während des Kalten Krieges unterzeichnet, zeigt das Montrealer Protokoll, dass es möglich ist, schnelle und entscheidende internationale Abkommen inmitten geopolitischer Spannungen zu erzielen.

Ein Schlüsselfaktor war, dass das Ozonloch fast jeden Menschen auf der Welt gefährdete. Es war keine Externalität, die von einigen Menschen auf andere abgewälzt wurde, sondern etwas, unter dem jeder leiden würde. Superintelligenz ist eine ähnlich universelle Bedrohung: Der Verlust der Kontrolle über KI bedeutet, dass selbst diejenigen, die sie entwickeln, ihren Gefahren nicht entgehen werden. Das Aussterberisiko durch Superintelligenz hat somit das Potenzial, jede Spaltung zu überwinden. Es kann Menschen über politische Parteien, Religionen, Nationen und Ideologien hinweg vereinen. Niemand möchte, dass sein Leben, seine Familie, seine Welt zerstört werden.

Wenn Menschen etwas über Superintelligenz und das von ihr ausgehende Aussterberisiko erfahren, sehen viele die Gefahr und beginnen, sich Sorgen zu machen. Wie beim Ozonloch muss diese Sorge in bürgerschaftliches Engagement umgewandelt werden, um eine globale Bewegung aufzubauen, die mit Regierungen zusammenarbeitet, um ein Verbot von Superintelligenz Realität werden zu lassen.

Leider wissen die meisten Gesetzgeber immer noch nichts über die Bedrohung durch Superintelligenz oder ihre Dringlichkeit, und KI-Unternehmen setzen nun massive Lobbyarbeit ein, um Versuche zur Regulierung von KI zu zerschlagen.

Das beste Gegengewicht zu dieser gigantischen Lobbyarbeit ist, dass die Gesetzgeber von ihren Wählern hören, was sie wirklich über Superintelligenz denken. Sehr oft werden Gesetzgeber feststellen, dass die meisten ihrer Wähler wollen, dass sie „nein“ zu einem Aussterberisiko und „ja“ zu einer Zukunft sagen, in der die Menschheit überlebt und gedeiht.

In einer Ära des abnehmenden politischen Engagements und der zunehmenden Partisanenschaft ist das Verbot von Superintelligenz ein Thema des gesunden Menschenverstandes, das Menschen über das gesamte politische Spektrum hinweg vereint.

Wie bei der Zerstörung der Ozonschicht haben alle durch die Entwicklung von Superintelligenz etwas zu verlieren. Wir wissen, dass die Bewegung zur Abwendung dieses Schicksals aufgebaut werden kann.

Die einzige Frage, die bleibt, ist: Können wir sie schnell genug aufbauen?

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.