Was wir über die Regulierung von KI aus dem Militär lernen können

High School Students Head to March AFB for Army Recruitment Drive

Jeden Tag vertraut das amerikanische Militär die mächtigsten Waffen der Welt Hunderttausenden von Soldaten an, die weltweit stationiert sind, wobei der Großteil unter 30 Jahre alt ist. Das Militär mildert die potenziellen Risiken durch diese mächtige Technologie, die global in den Händen junger und häufig unerfahrener Nutzer eingesetzt wird, durch einen dreigleisigen Ansatz: Sie regulieren die Technologie, die Nutzer und ihre Einheiten. Die Regierung hat die Möglichkeit, das Gleiche mit KI zu tun.

Je nach Aufgabe müssen Soldaten erfolgreich Kurse, Lehrausbildungen und mündliche Prüfungen absolvieren, bevor sie die Befugnis erhalten, ein Schiff zu steuern, eine Waffe abzufeuern oder in einigen Fällen Wartungsaufgaben durchzuführen. Jede Qualifikation spiegelt wider, wie technisch kompliziert das System sein kann, wie tödlich es sein könnte und wie viel Befugnis der Nutzer haben wird, Entscheidungen zu treffen. Darüber hinaus weiß das Militär, dass auch qualifizierte Menschen müde, gelangweilt oder gestresst werden können, und hat daher ein Backup-System aus Standardbetriebsverfahren (SOPs) und Checklisten, die ein konsistentes, sicheres Verhalten gewährleisten – etwas, das Chirurgen zum Beispiel nachgeahmt haben.

Die Risikominimierung im Militär geht über Einzelpersonen hinaus und umfasst auch Einheiten. “Carrier Quals”, beispielsweise, sind nicht nur für einzelne Piloten bestimmt. Sie müssen auch durch die gemeinsame Demonstration eines Flugzeugträgers und seines zugeordneten Luftgeschwaders (der Gruppe von Piloten) erworben werden. Einheitliche Qualifikationen betonen Teamarbeit, kollektive Verantwortung und das integrierte Funktionieren mehrerer Rollen in einem bestimmten Kontext. Dies gewährleistet, dass jedes Teammitglied nicht nur in seinen eigenen Aufgaben qualifiziert ist, sondern auch seine Aufgaben im größeren Kontext vollständig versteht.

Schließlich unterscheidet und begrenzt das Militär die Befugnisse auf verschiedene Personen in Abhängigkeit von der Aufgabe und dem Verantwortungsgrad oder der Dienststellung der Person. Zum Beispiel muss ein Offizier für Oberflächenkriegsführung mit Waffenfreigabebefugnis immer noch die Erlaubnis des Schiffskapitäns einholen, um bestimmte Arten von Waffen einzusetzen. Diese Überprüfung gewährleistet, dass Personen mit der richtigen Befugnis und dem richtigen Bewusstsein die Gelegenheit haben, besondere Risikokategorien anzusprechen – wie solche, die einen Konflikt eskalieren oder den Bestand einer besonders wichtigen Waffe verringern könnten.

Diese militärischen Strategien sollten Gespräche über die Regulierung von KI anregen, weil wir gesehen haben, dass ähnliche Ansätze in anderen, nicht-militärischen Bereichen funktioniert haben. Qualifikationen, SOPs und abgegrenzte Befugnisse ergänzen bereits technische und ingenieurwissenschaftliche Vorschriften in Sektoren wie dem Gesundheitswesen, dem Finanzwesen und der Polizeiarbeit. Obwohl das Militär in der Lage ist, solche Qualifikationsregime durchzusetzen, können diese Rahmenwerke auch in zivilen Sektoren effektiv angewendet werden. Ihre Einführung kann durch die Demonstration des Geschäftswerts solcher Instrumente, durch staatliche Regulierung oder durch Nutzung wirtschaftlicher Anreize vorangetrieben werden.

Der primäre Vorteil eines Qualifikationssystems wäre es, den Zugang zu potenziell gefährlichen KI-Systemen nur auf geprüfte und geschulte Nutzer zu begrenzen. Der Prüfungsprozess hilft, das Risiko von Böswilligen zu verringern, wie denjenigen, die sie nutzen würden, um Text oder Video zu produzieren, die öffentliche Persönlichkeiten imitieren oder sogar Privatpersonen zu stalken oder zu belästigen. Das Training hilft, das Risiko zu verringern, dass gutmenschliche Menschen, die die Technologien dennoch nicht vollständig verstehen, sie nicht wie beabsichtigt einsetzen, wie ein Anwalt, der ChatGPT für eine Rechtsbegründung verwendet.

Um die Rechenschaftspflicht einzelner Nutzer weiter zu verbessern, könnten bestimmte Qualifikationen, wie z.B. die Entwicklung maßgeschneiderter biologischer Agenten, die Nutzer verpflichten, eine eindeutige Kennung zu haben, ähnlich einer national provider identifier oder einer Fahrerlaubnisnummer. Dies würde professionellen Organisationen, Gerichten und Strafverfolgungsbehörden effektiv ermöglichen, Fälle des Missbrauchs von KI zu verfolgen und anzusprechen, was ein Mechanismus für Rechenschaftspflicht ist, den unser Rechtssystem gut versteht.

Die Ergänzung individueller Qualifikationen um organisationale Qualifikationen kann für eine noch robustere, mehrstufige Aufsicht besonders leistungsfähiger Systeme sorgen, die missionkritische Funktionen erfüllen. Dies verstärkt, dass KI-Sicherheit nicht nur eine individuelle Verantwortung, sondern auch eine organisationale Verantwortung ist. Dieser Qualifikationsansatz würde auch die Entwicklung abgegrenzter Verantwortlichkeiten unterstützen, die besonders folgenreiche Entscheidungen auf diejenigen beschränken, die nicht nur qualifiziert, sondern auch ausdrücklich befugt sind, ähnlich wie die Securities and Exchange Commission (SEC) reguliert, wer Hochfrequenzhandelsoperationen durchführen darf. Mit anderen Worten: Es wird nicht ausreichen, dass ein Nutzer einfach weiß, wie man KI einsetzt; er muss auch wissen, wann es angemessen ist, dies zu tun, und unter wessen Autorität.

Qualifikationen und Checklisten können auch sekundäre Vorteile haben. Das Entwerfen, Verwalten und Überwachen von ihnen wird Arbeitsplätze schaffen. Nationale sowie Landesregierungen können die qualifizierenden Behörden werden, Berufsverbände können führend in Sicherheitsforschung und entsprechenden Standards werden. Sogar KI-Unternehmen könnten wirtschaftlich von der Unterstützung von Qualifizierungsprogrammen für ihre einzelnen Systeme profitieren.

Die Idee der Einführung eines Qualifikations- oder Lizenzierungssystems für die KI-Nutzung stellt einen überzeugenden, aber auch komplexen Satz von Chancen und Herausforderungen dar. Der Rahmen könnte die Sicherheit und Rechenschaftspflicht erheblich verbessern, aber es wird auch Hürden und mögliche Nachteile geben, wobei die erste sein könnte, Barrieren für den Zugang zu diesen Werkzeugen und ein weniger diverses Praktikerfeld zu schaffen. Qualifikationsregime gehen auch mit bürokratischem Aufwand einher, und es besteht das Risiko, dass unterschiedliche Rechtsordnungen unterschiedliche Qualifikationen einführen, die die Innovation unnötig behindern und einen effizienten globalen KI-Markt.

Diese Nachteile müssen im Kontext gesehen werden. Ohne einen gut durchdachten Ansatz für Qualifikationen sind wir gezwungen, uns ausschließlich auf die Regulierung ingenieurwissenschaftlicher Herangehensweisen zu verlassen – ein Prozess, der ebenfalls bürokratisch, langsam und niemals ausreichend sein wird.

Während die Vorteile eines Lizenz- oder Qualifikationssystems für Sicherheit und Verantwortung erheblich sein könnten, rechtfertigen die logistischen, ethischen und praktischen Herausforderungen eine sorgfältige Prüfung. Diese Prüfung darf den Handlungen in Richtung Qualifikationssysteme jedoch nicht im Wege stehen, da sich diese Technologien schnell verbreiten.

Regierungen und Berufsverbände können jetzt damit beginnen, vertrauenswürdige Stellen für vorrangige Sektoren oder Anwendungen zu bestimmen oder zu benennen und ihnen ihre erste Aufgabe zu übertragen: das Sammeln und Analysieren von Vorfällen des KI-Schadens. Datenbanken über KI-Vorfälle oder Berichte über Unfälle mit autonomen Fahrzeugen helfen Aufsichtsorganisationen, Risiken besser zu verstehen, während sie Schulungs- und Qualifikationsregime entwickeln.

Darüber hinaus müssen die Aufsichtsbehörden beginnen, Qualifizierungsmechanismen zu erproben und die gewonnenen Erkenntnisse für eine iterative Verbesserung auszutauschen. Mehrere Pilotprojekte könnten parallel in verschiedenen Regionen und Märkten durchgeführt werden, um parallel zu lernen und die Kosten-Nutzen-Analyse verschiedener regulatorischer Ansätze besser bewerten zu können. Gleichzeitig müssen wir die Entwicklung von Bildungsinitiativen zur Verbesserung des KI-Verständnisses in der Bevölkerung fortsetzen.