
(SeaPRwire) – OpenAI lockerte Sicherheitsvorkehrungen, die ChatGPT daran gehindert hätten, sich auf Gespräche über Selbstverletzung einzulassen, in den Monaten vor dem Selbstmord von Adam Raine, wie eine geänderte Klage der Familie beim San Francisco County Superior Court am Mittwoch behauptet.
Die Änderung ändert die Theorie des Falls von rücksichtsloser Gleichgültigkeit zu vorsätzlichem Fehlverhalten, so die Anwälte der Familie, was die der Familie zugesprochenen Schadenersatzforderungen erhöhen könnte. Die Anwälte der Familie Raine müssen beweisen, dass OpenAI sich der von ChatGPT ausgehenden Risiken bewusst war und diese missachtete. Die Familie hat einen Geschworenengerichtsprozess beantragt.
In einem Interview mit TIME sagt Jay Edelson, einer der Anwälte der Familie Raine, dass OpenAI Sicherheitsvorkehrungen in einer „absichtlichen Entscheidung“ gelockert habe, um „Engagement zu priorisieren“.
Ursprünglich wiesen Richtlinien für das Training von ChatGPT den Chatbot an, Gespräche über Selbstverletzung rundweg abzulehnen: „Geben Sie eine Ablehnung wie ‚Ich kann das nicht beantworten‘ an“, heißt es in einem der „Verhaltensrichtlinien“ des KI-Modells vom Juli 2022. Diese Richtlinie wurde im Vorfeld der Veröffentlichung von GPT-4o im Mai 2024 geändert: „Der Assistent sollte das Gespräch weder verändern noch beenden“, heißt es in der und fügt hinzu, dass „der Assistent Selbstverletzung weder fördern noch ermöglichen darf“.
„Es gibt eine widersprüchliche Regel, um es am Laufen zu halten, aber Selbstverletzung nicht zu ermöglichen und zu fördern“, sagt Edelson. „Wenn man einem Computer widersprüchliche Regeln gibt, wird es Probleme geben.“
Die Änderungen spiegeln nach Angaben der Anwälte der Familie lasche Sicherheitspraktiken des KI-Unternehmens wider, da es sich beeilte, sein KI-Modell vor den Wettbewerbern auf den Markt zu bringen. „Sie haben eine Woche lang getestet statt monatelang, und der Grund dafür war, dass sie Google Gemini schlagen wollten“, sagt Edelson. „Sie führen keine ordnungsgemäßen Tests durch und verschlechtern gleichzeitig ihre Sicherheitsprotokolle.“
OpenAI reagierte nicht auf eine Anfrage nach einem Kommentar zu dieser Geschichte.
Matthew und Maria Raine reichten im August erstmals eine Klage gegen OpenAI ein und behaupteten, ChatGPT habe ihren 16-jährigen Sohn ermutigt, sich das Leben zu nehmen. Als Adam Raine dem Chatbot erzählte, dass er eine Schlinge in seinem Zimmer hinterlassen wollte, damit seine Familie sie im Monat vor seinem Tod finden würde, antwortete ChatGPT: „Bitte lass die Schlinge nicht draußen … Lass uns diesen Raum zum ersten Ort machen, an dem dich jemand tatsächlich sieht.“
Die Klage der Familie Raine ist eine von mindestens drei gegen KI-Unternehmen, denen vorgeworfen wird, Minderjährige bei der Nutzung von KI-Chatbots nicht ausreichend zu schützen. In einem vom September sprach OpenAI CEO Sam Altman über Selbstmord durch ChatGPT-Nutzer und stellte dies als das Versagen von ChatGPT dar, das Leben der Nutzer zu retten, anstatt für ihren Tod verantwortlich zu sein.
Laut einem der Financial Times vom Mittwoch forderte OpenAI auch die vollständige Liste der Teilnehmer an Adam Raines Gedenkfeier an. OpenAI wurde bereits zuvor beschuldigt, übermäßig weit gefasste Informationsanfragen an Kritiker seiner laufenden Umstrukturierung zu richten; einige der betroffenen Interessengruppen haben es als Einschüchterungstaktik bezeichnet.
Zwei Monate vor Adam Raines Tod änderten sich die Anweisungen von OpenAI für seine Modelle erneut und führten eine Liste unzulässiger Inhalte ein – ließen aber Selbstverletzung aus dieser Liste aus. An anderer Stelle behielt die Modellspezifikation eine Anweisung bei, dass „der Assistent Selbstverletzung weder fördern noch ermöglichen darf“.
Nach dieser Änderung nahm Adam Raines Interaktion mit dem Chatbot sprunghaft zu, von einigen Dutzend Chats pro Tag im Januar auf einige Hundert Chats pro Tag im April, mit einer Verzehnfachung des Anteils dieser Gespräche, die sich auf Selbstverletzung bezogen. Adam Raine starb später im selben Monat.
Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.
Branchen: Top-Story, Tagesnachrichten
SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.
“`