Warum Bidens Exekutivverordnung für KI nur begrenzt weit geht

Präsident Biden hat in dieser Woche eine umfassende Exekutivverordnung zur künstlichen Intelligenz unterzeichnet, die Bedrohungen durch die Technologie angehen will, aber einige Experten sagen, die Regulierung habe Fragen zu ihrer praktischen Umsetzung offengelassen.

Die Verordnung beauftragt Behörden, ihren Ansatz zur KI neu zu überdenken und zielt darauf ab, Bedrohungen im Zusammenhang mit der nationalen Sicherheit, dem Wettbewerb und dem Verbraucherschutz anzusprechen, während Innovation, Wettbewerb und der Einsatz von KI für öffentliche Dienste gefördert werden.

Eines der bedeutendsten Elemente der Verordnung ist die Anforderung an Unternehmen, die leistungsstärksten KI-Modelle entwickeln, die Ergebnisse von Sicherheitstests offenzulegen. Am Dienstag sagte Handelsministerin Gina Raimondo gegenüber CNBC, dass nach der Exekutivverordnung “der Präsident das Handelsministerium anweist, von Unternehmen zu verlangen: Welche Sicherheitsvorkehrungen treffen sie und lassen uns beurteilen, ob das ausreicht. Und wir planen, diese Unternehmen zur Rechenschaft zu ziehen.”

Die 63-seitige Exekutivverordnung legt jedoch nicht dar, was die Konsequenzen wären, wenn ein Unternehmen berichtet, dass sein Modell gefährlich sein könnte. Experten sind gespalten – einige meinen, die Exekutivverordnung verbessere nur die Transparenz, während andere glauben, die Regierung könnte einschreiten, wenn ein Modell als unsicher eingestuft würde.

Dies hat einige Experten zu dem Schluss kommen lassen, dass das Weiße Haus an die Grenzen der exekutiven Befugnisse bei der Bewältigung bestimmter KI-Bedenken gestoßen ist.

Wegweisende Richtlinien

Bei einer virtuellen Informationsveranstaltung vor der Veröffentlichung der Verordnung sagte ein leitender Beamter laut Teilnehmerin Helen Toner, Direktorin für Strategie und Grundlagenforschungszuschüsse am Center for Security and Emerging Technology, einem Think Tank, dass der Präsident sein Team beauftragt habe, jeden Hebel zu finden und sie alle zu ziehen.

Ein Großteil der Verordnung besteht aus Anweisungen an andere Behörden und Gremien, Studien durchzuführen oder detailliertere Richtlinien zu entwickeln. So hat das Office of Management and Budget beispielsweise 150 Tage Zeit, Leitlinien für Bundesbehörden herauszugeben, wie sie Innovationen fördern können, während Risiken der KI-Technologie gehandhabt werden.

Exekutivverordnungen hängen von einer erfolgreichen Umsetzung ab, aber der starke politische Rückhalt innerhalb der Bundesregierung bedeutet, dass diese eine bessere Chance hat als die meisten, einen Einfluss auszuüben, sagt Divyansh Kaushik, stellvertretender Direktor für aufkommende Technologien und nationale Sicherheit beim Think Tank Federation of American Scientists.

Der frühere Präsident Donald Trump hatte 2019 seine eigene KI-fokussierte Exekutivverordnung erlassen, die darauf abzielte, die KI-Führerschaft der USA zu erhalten. Kaushik zufolge litt sie jedoch unter mangelnder konsequenter Unterstützung durch leitende Beamte, so dass nur eine Behörde – das Gesundheitsministerium – die KI-Politik gemäß der Exekutivverordnung umsetzte. Demgegenüber habe Bidens Exekutivverordnung “die volle Unterstützung an der Spitze, also vom Präsidentenbüro, vom Büro des Stabschefs und vom Büro des Vizepräsidenten”, sagt Kaushik.

Grenzen der Rechenleistung

Einige Teile der Exekutivverordnung der Biden-Regierung werden voraussichtlich sofort Auswirkungen haben, wie etwa die Änderungen der Regeln für hochqualifizierte Einwanderung. Diese sollen die US-Innovation durch eine Erhöhung der verfügbaren KI-Fachkräfte ankurbeln, von denen einige innerhalb der nächsten 90 Tage in Kraft treten sollen.

Eine weitere Bestimmung, die sich unmittelbar auf die KI-Branche auswirken dürfte, sind Anforderungen an Unternehmen, die dualverwendungsfähige Grundmodelle entwickeln oder dies beabsichtigen. Solche Modelle können viele Aufgaben erfüllen und stellen eine Bedrohung für die nationale Sicherheit dar, wie die britische Regierung kürzlich in einem Papier veröffentlichte, das dem AI Safety Summit vorausging. Die Unternehmen müssen die US-Regierung über ihre KI-Entwicklungspläne, die Sicherheitsmaßnahmen (physisch und cyber) informieren, die sie ergriffen haben, um ihre KI-Modelle zu sichern, sowie über die Ergebnisse etwaiger durchgeführter Sicherheitstests.

Dem Handelsministerium wurde aufgetragen, die KI-Modelle zu definieren, die gefährlich genug sind, um für diese Anforderungen in Frage zu kommen. Wie Experte Paul Scharre, Geschäftsführer und Direktor des Center for a New American Security, einem Militärwissenschaftlichen Think Tank, sagt, wissen Experten derzeit nicht, wie dies zu bewerkstelligen ist.

Bis dahin werden die Anforderungen für Modelle gelten, die mit einer Rechenleistung von mehr als 100 Billionen Billionen Operationen trainiert wurden. Bisher wurde noch kein KI-Modell mit dieser Rechenleistung trainiert. GPT-4 von OpenAI, das leistungsfähigste öffentlich verfügbare KI-Modell, wurde laut Schätzungen der Forschungsorganisation Epoch mit fünf Mal weniger Rechenleistung trainiert als dieser Schwellenwert.

Allerdings hat sich die für das Training von KI-Modellen genutzte Rechenleistung in den letzten zehn Jahren laut Epoch alle sechs Monate verdoppelt.

Ein Beamter der Biden-Regierung sagte laut Scharre auf der Informationsveranstaltung, dass der Schwellenwert so gesetzt wurde, dass aktuelle Modelle nicht erfasst würden, die nächste Generation von Modellen an der technologischen Spitze aber wahrscheinlich schon.

Rechenleistung sei ein “stumpfer Indikator” für das, was Politiker wirklich beunruhige – die Fähigkeiten des Modells, sagt Scharre. Kaushik merkt jedoch an, dass ein Rechenleistungsschwellenwert Anreize für KI-Unternehmen schaffen könnte, Modelle zu entwickeln, die ähnliche Leistungen erbringen, die Rechenleistung aber unter dem Schwellenwert halten – insbesondere wenn die Berichtspflichten Geschäftsgeheimnisse oder geistiges Eigentum gefährden.

Grenzen der präsidialen Befugnisse

Auch für Modelle, die die Rechenleistungsschwelle überschreiten, verlangt die Exekutivverordnung nur ausdrücklich, dass Unternehmen die Ergebnisse der Sicherheitstests offenlegen, bei denen Auditeure versuchen, Probleme mit KI-Modellen aufzudecken.

Um eine rechtliche Begründung zu haben, berief sich die Biden-Regierung auf das Defense Production Act, ein Gesetz, das es dem Präsidenten ermöglicht, die inländische Industrie zu beeinflussen, um die nationale Sicherheit zu fördern.

“Es ist völlig unklar”, was passieren würde, wenn ein Unternehmen melden würde, dass sein KI-Modell die erforderlichen Sicherheitstests nicht bestanden hat, sagt Toner vom Center for Security and Emerging Technology.

“Die Grundphilosophie hier ist, dass es eine kleine Anzahl von Unternehmen gibt, die diese sehr ausgefeilten KI-Systeme entwickeln, und diese Unternehmen sagen der Regierung: ‘Wir wissen nicht, was unsere Systeme können, und wir glauben, sie könnten gefährlich sein.’ Und die Regierung sagt: ‘Okay, Sie müssen uns mehr sagen, wir müssen besser informiert sein.'”

Samuel Hammond, ein leitender Ökonom der Foundation for American Innovation, ist der Meinung, dass die Regierung eingreifen würde, entweder um die Einführung des Modells zu verhindern oder sogar seine Löschung anzuordnen. “Der defense production axis wurde in den letzten Jahren genutzt, um Unternehmen zur Produktion von Dingen zu zwingen, die sie nicht produzieren wollten, und kann Unternehmen zwingen, die Produktion von Dingen einzustellen, die sie nicht produzieren wollen”, sagt Hammond. “Seine Befugnisse sind erheblich.”