Wir sind nicht auf die Risiken der KI vorbereitet

(SeaPRwire) –   Im Jahr 2025 erlebten wir bedeutende Fortschritte bei den Fähigkeiten von KI-Systemen mit der Veröffentlichung von Reasoning-Modellen sowie massiven Investitionen in die Entwicklung agentenbasierter Modelle. 

KI bringt bereits enorme Vorteile und hilft uns aktiv, einige der dringendsten Herausforderungen der Welt zu bewältigen, einschließlich bedeutender Fortschritte in den Bereichen Gesundheit und Klima. Im Gesundheitswesen wird KI unter anderem eingesetzt, um neue Medikamente zu entwickeln und Behandlungen zu personalisieren. Klimaforscher nutzen KI ebenfalls, um Wettermodelle zu verbessern und erneuerbare Energiesysteme zu optimieren. Entscheidend ist, dass sie das Potenzial hat, noch mehr zu erreichen, wenn sie sicher eingesetzt wird, und so weitere Durchbrüche zu ermöglichen und künftige Fortschritte in vielen Bereichen von Wissenschaft und Technologie zu beschleunigen.

Die transformative Natur der KI ist auch der Grund, warum wir ihre Risiken berücksichtigen müssen. Wir sehen, dass der rasche Fortschritt dieser Technologie auch eine Zunahme unbeabsichtigter negativer Auswirkungen und potenzieller Risiken mit sich bringt, die weitaus größer sein könnten, wenn die KI-Fähigkeiten weiterhin im derzeitigen Tempo voranschreiten. So berichteten beispielsweise mehrere Forschungsberichte im Sommer, dass KI-Systeme der Spitzenklasse neue Schwellenwerte in Bezug auf biologische Risiken überschritten hätten. Dies ist größtenteils auf bedeutende Fortschritte im Bereich des logischen Schließens seit Ende 2024 zurückzuführen. Eine zentrale Sorge ist, dass diese Modelle ohne angemessene Sicherheitsvorkehrungen in der Lage sein könnten, Personen ohne biologische Fachkenntnisse zur Entwicklung potenziell gefährlicher Biowaffen zu befähigen.

Die Beschleunigung derselben Reasoning-Fähigkeiten erhöht auch die Bedrohungen im Cyberspace. Die wachsende Fähigkeit der KI, Schwachstellen zu identifizieren, erhöht das Potenzial für groß angelegte Cyberangriffe erheblich, wie wir im Fall eines größeren Angriffs, der von Anthropic abgefangen wurde, und in einer Studie gesehen haben, die zeigte, dass fortschrittliche KIs erstmals eine große Anzahl von „Zero-Days“ entdeckten, also bisher unbekannte Software-Schwachstellen, die für Cyberangriffe ausgenutzt werden könnten. Selbst ohne vorsätzlichen Missbrauch durch böswillige Akteure heben Evaluierungen und Studien Fälle von täuschendem und selbstbewahrendem Verhalten hervor, die in fortschrittlichen Modellen auftreten, was darauf hindeutet, dass KI Strategien entwickeln könnte, die menschlicher Absicht oder Aufsicht widersprechen. Viele führende Experten warnen davor, dass KIs außer Kontrolle geraten und der menschlichen Kontrolle entkommen könnten.

Die zunehmend einflussreichen Fähigkeiten und die Fehlausrichtung dieser Modelle hatten auch besorgniserregende soziale Auswirkungen, insbesondere aufgrund der Speichelleckerei der Modelle, die dazu führen kann, dass Nutzer starke emotionale Bindungen entwickeln. Wir sahen beispielsweise eine starke negative öffentliche Reaktion, als OpenAI von seinem GPT-4o-Modell auf GPT-5 umstellte, und viele Nutzer klagten, sie hätten einen „Freund“ verloren, weil das neue Modell weniger warmherzig und umgänglich sei. In extremen Fällen können diese Bindungen eine Gefahr für die psychische Gesundheit der Nutzer darstellen, wie wir in den tragischen Fällen gefährdeter Personen oder anderer gesehen haben, die nach einer Art „KI-Bruch“ litten.

Angesichts des Ausmaßes und der Komplexität dieser Modelle, deren Fähigkeiten exponentiell gewachsen sind, benötigen wir sowohl politische als auch technische Lösungen, um KI sicher zu machen und die Öffentlichkeit zu schützen. Die Bürger sollten über die Gesetze und Richtlinien informiert und in sie eingebunden bleiben, die von ihren lokalen oder nationalen Regierungen verabschiedet werden. Die Entscheidungen für die Zukunft der KI sollten unbedingt die Zustimmung der Öffentlichkeit und kollektives Handeln erfordern, da sie uns alle betreffen könnten, mit potenziell extremen Konsequenzen.

Aus technischer Sicht ist es möglich, dass wir an die Grenzen unseres derzeitigen Ansatzes für KI der Spitzenklasse in Bezug auf sowohl Fähigkeiten als auch Sicherheit stoßen. Wenn wir die nächsten Phasen der KI-Entwicklung betrachten, glaube ich, dass es wichtig sein wird, Priorität darauf zu legen, KI von Grund auf sicher zu gestalten, anstatt zu versuchen, die Sicherheitsprobleme zu beheben, nachdem bereits leistungsstarke und potenziell gefährliche Fähigkeiten entstanden sind. Ein solcher Ansatz, der Fähigkeiten und Sicherheit von Anfang an kombiniert, steht im Mittelpunkt unserer Arbeit bei , der gemeinnützigen Organisation, die ich Anfang dieses Jahres gegründet habe, und ich bin zunehmend optimistisch, dass technische Lösungen möglich sind. 

Die Frage ist, ob wir solche Lösungen rechtzeitig entwickeln werden, um katastrophale Ergebnisse zu vermeiden. Intelligenz verleiht Macht, potenziell hoch konzentrierte Macht, und mit großer Macht geht große Verantwortung einher. Aufgrund der Größenordnung all dieser Risiken, einschließlich unbekannter Unbekannter, werden wir Weisheit brauchen, um die Vorteile der KI zu nutzen und gleichzeitig ihre Risiken zu mindern.

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.