
(SeaPRwire) – Am 16. April kündigte OpenAI GPT-Rosalind an, ein neues KI-Modell für die Lebenswissenschaften. Es übertrifft die derzeit öffentlich verfügbaren Modelle des Unternehmens deutlich bei Aufgaben aus Chemie und Biologie sowie bei der Versuchsplanung. Wie auch Anthropics Claude Mythos und OpenAIs GPT-5.4-Cyber, die ebenfalls in diesem Monat veröffentlicht wurden, ist das Modell nicht für die breite Öffentlichkeit zugänglich – es ist zumindest zunächst über ein „Trusted Access Program“ für „qualifizierte Kunden“ reserviert.
Diese Veröffentlichungen signalisieren einen neuen, besorgniserregenden Trend: KI-Unternehmen beurteilen ihre leistungsfähigsten Modelle als zu stark, um sie der breiten Öffentlichkeit anzuvertrauen. „Ich denke, Entwickler von Spitzenmodellen schränken den Zugang zu ihren leistungsfähigsten Modellen ein, weil sie sich ernsthaft Sorgen um einige der Fähigkeiten dieser Modelle machen“, sagt Peter Wildeford, Leiter Politik bei der Interessengruppe AI Policy Network.
Warum OpenAI sich speziell für eine Zugangsbeschränkung bei GPT-Rosalind entschieden hat, ist unklar. Ein Sprecher von OpenAI teilte per E-Mail mit, dass die Gewährung von Zugang zu vertrauenswürdigen Partnern es dem Unternehmen ermögliche, „leistungsfähigere Systeme früher für verifizierte Nutzer verfügbar zu machen, während Risiken weiterhin sorgfältig gemanagt werden“.
Wer entscheidet?
Die rasante Weiterentwicklung der KI-Fähigkeiten wirft die Frage auf, ob private Unternehmen die zunehmend gewichtigen Entscheidungen treffen sollen, ob und wie potenziell gefährliche KI-Modelle gebaut werden dürfen und wer sie nutzen darf. „Ich denke, die Bundesregierung hat hier eine Rolle zu spielen“, sagt der demokratische Abgeordnete aus Kalifornien, Mark DeSaulnier.
Die Veröffentlichung von Anthropics Mythos scheint die zuvor angespannte Beziehung des Unternehmens zum Weißen Haus verbessert zu haben: Letzteres erklärte vergangene Woche, es habe ein „produktives und konstruktives“ Treffen mit dem CEO von Anthropic, Dario Amodei, abgehalten. Berichten zufolge hat auch die NSA begonnen, Claude Mythos zu nutzen. Im Februar hatte Präsident Trump nach einem Vertragsstreit mit dem Pentagon Bundesbehörden angewiesen, die Zusammenarbeit mit dem „radikallinken, woken Unternehmen“ zu beenden.
Die Zugangsbeschränkungen für die jüngste Modellreihe erfolgten auf freiwilliger Basis von Anthropic und OpenAI. Da die von KI-Modellen ausgehenden Risiken jedoch immer schwerwiegender und komplexer werden, fordern einige eine strengere externe Aufsicht.
„Wir erlauben es Unternehmen nicht, zu entscheiden, wie viel giftige Schadstoffe sie in das Trinkwasser meines Kindes einleiten dürfen – das ist Entscheidung der Regierung“, sagt Connor Leahy, US-Direktor der Interessengruppe für KI-Regulierung ControlAI. „Wir können darüber streiten, ob die Regierung schlechte oder gute Arbeit leistet, aber es geht um die Gewaltenteilung.“
„Wissenschaftliche Forschung und die Herstellung einer Biowaffe sehen sehr ähnlich aus“
Die doppelte Verwendbarkeit von Fähigkeiten, beispielsweise in der biologischen Forschung und der Cybersicherheitsforschung, stellt KI-Unternehmen vor Herausforderungen. Dieselben Tools, die einem Cybersicherheitsforscher dabei helfen, Schwachstellen in Software zu finden und zu schließen, können einem potenziellen Angreifer unterstützen. Eine KI, die bei der Untersuchung von Viren hilft, könnte hypothetisch einem Bioterroristen dabei helfen, einen tödlicheren Virusstamm zu entwickeln. „Cyberverteidigung und Cyberangriff sehen sehr ähnlich aus“, sagt Wildeford. „Wissenschaftliche Forschung und die Herstellung einer Biowaffe sehen sehr ähnlich aus.“
In der Vergangenheit haben Unternehmen sich dafür entschieden, diese Fähigkeiten für alle Nutzer einzuschränken. Viele Chatbots weigern sich beispielsweise, Anfragen dazu zu beantworten, welche COVID-Mutationen zu einer höheren Übertragbarkeit des Virus führen. Während das durchschnittliche Nutzer davon nicht betroffen ist, stellt es für Forscher eine Herausforderung dar. „Es ist frustrierend“, sagt James Diggans, Vizepräsident für Politik und Biosicherheit bei dem DNA-Syntheseunternehmen Twist Bioscience. „Aber ich denke, es ist die richtige Entscheidung.“
Die jüngsten Modellveröffentlichungen lockern einige dieser Beschränkungen für vertrauenswürdige Parteien. OpenAI gibt an, Zugang zu GPT-Rosalind nur an Organisationen mit „starken internen Kontrollen“ zu gewähren, die sicherstellen, dass das Modell nicht missbraucht wird. Anthropic hat Partnerschaften mit US-Regierungsbehörden und privaten Unternehmen geschlossen, die Mythos nutzen, um Schwachstellen in der Cybersicherheit zu finden und zu schließen. Batalis weist jedoch darauf hin, dass die Definition von „berechtigten“ Forschern außerhalb von US-Einrichtungen schwieriger ist, was Gerechtigkeitsbedenken für internationale Forscher aufwirft.
Die Entscheidung, für welche Modelle der Zugang beschränkt werden soll, ist ein empfindlicher Balanceakt, der je nach Bereich unterschiedlich ausfällt. Es ist leicht zu messen, ob ein KI-Modell eine potenzielle Cyberbedrohung darstellt, sagt Diggans: „Können sie bestehende Systeme knacken?“ Biologische Forschung ist ein komplexerer, mehrstufiger Prozess, der länger dauert als Cyberangriffe; es ist weniger klar, ob von einem Modell wie GPT-Rosalind Schaden ausgehen würde, wenn es öffentlich zugänglich wäre. „Wir wissen, dass Menschen Cyberangriffe durchführen wollen und auch tun“, sagt Batalis. „Für biologische Risiken haben wir einfach nicht dieselbe Stichprobengröße.“ Andere Bereiche könnten mit fortschreitender KI-Entwicklung noch stärker umstritten werden. Kommunikationskampagnen könnten in falschen Händen als Propagandaoperationen eingestuft werden.
„Cyberfähigkeiten werden sich verbreiten“
Open-Source-Modelle, die kostenlos heruntergeladen und ausgeführt werden können, könnten die Kalkulationen rund um die Zugangsbeschränkungen für KI-Modelle verändern. Laut dem Forschungsinstitut Epoch AI, das die KI-Entwicklung untersucht, haben die Fähigkeiten von Open-Source-Modellen bisher stets drei bis sieben Monate hinter denen proprietärer Modelle zurückgelegen. Das bedeutet: Wenn sich der Trend fortsetzt, könnte ein KI-Modell mit den Fähigkeiten von GPT-Rosalind und Mythos bereits Ende des Jahres öffentlich verfügbar sein. „Cyberfähigkeiten werden sich verbreiten“, sagte der Sprecher von OpenAI. „Verteidiger brauchen bessere Tools früher, nicht später.“
Open-Source-Modelle könnten internationalen Cyberangreifern zugutekommen. Im November gab Anthropic bekannt, dass es eine chinesische staatlich unterstützte Gruppe, die die kostenpflichtigen Modelle des Unternehmens nutzte, durch Sperrung ihres Zugangs zur KI gestoppt habe. Wenn ähnlich leistungsfähige Modelle frei im Internet verfügbar sind, würde dies den Einfluss westlicher Unternehmen verringern.
Einige Open-Source-Entwickler haben sich bisher jedoch bei dem Training ihrer Modelle auf Ausgaben führender proprietärer Systeme verlassen. Die jüngsten Zugangsbeschränkungen für neue Modelle könnten die Verbreitung der fortschrittlichsten Fähigkeiten in Open-Source-Modelle verlangsamen oder stoppen – solange die Unternehmen die Beschränkungen durchsetzen können. (Berichten zufolge ist es einigen unbefugten Nutzern bereits gelungen, auf Claude Mythos zuzugreifen.)
Unabhängig davon, ob Open-Source-Modelle zu den führenden proprietären Modellen aufschließen oder nicht, stellen Mythos und GPT-Rosalind die neue Basis für die Spitzenfähigkeiten von KI dar – und die wachsenden Chancen und Risiken, die von KI ausgehen, zeigen keine Anzeichen einer Verlangsamung. „Ich denke, die Regierung hat ein starkes Interesse daran, dies zu verwalten“, sagt Wildeford. „Ich weiß nicht wirklich, wie man die Notwendigkeit staatlicher Eingriffe umgehen kann.“
Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.
Branchen: Top-Story, Tagesnachrichten
SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.