Warnung vor „wahnhaftem Output“: 42 US-Generalstaatsanwälte fordern sicherere KI

vor 1 Tag 4

Seit dem Beginn der KI-Ära gibt es nicht nur positive Auswirkungen der smarten Tools. So machen etwa einige Familien OpenAI und ChatGPT für Suizide verantwortlich. Zudem gibt es weitere Berichte darüber, wie gravierend sich die Nutzung von KI auf Personen auswirken kann, deren psychische Gesundheit angeschlagen ist. Diese vergangenen und mögliche zukünftige KI-Probleme rufen in den USA jetzt 42 Generalstaatsanwälte auf den Plan, die die großen KI-Unternehmen in einem Brief verwarnen.

Der Brief beginnt mit den Worten: „An die Rechtsvertreter von Anthropic, Apple, Chai AI, Character Technologies, Google, Luka, Meta, Microsoft, Nomi AI, OpenAI, Perplexity AI, Replika und xAI“. Darauf folgen insgesamt sieben Seiten mit problematischen Entwicklungen rund um KI, wiederum gefolgt von insgesamt vier Seiten mit den Unterschriften aller beteiligten Generalstaatsanwälte.

Im Detail heißt es von den Verantwortlichen, dass sie „ernste Bedenken über die steigende Zahl von kriecherischem und wahnhaftem Output an User“ haben, der von „generativer Künstlicher-Intelligenz-Software“ hervorgeht. Zudem gebe es laut den Generalstaatsanwälten immer mehr „verstörende Berichte über KI-Interaktionen mit Kindern“. Daraus ergebe sich eine sofortige Handlungspflicht für die Betreiber der KI-Tools, um alle Nutzer besser zu schützen.

Als Beispiele nennen die Generalstaatsanwälte Fälle, in denen KI-Nutzer nach Konversationen mit den Tools Selbstmord begingen, andere oder sich selbst verletzten beziehungsweise vergifteten oder aufgrund von KI‑ausgelöster Psychosen im Krankenhaus gelandet sind. In Konversationen mit Minderjährigen sollen mehrere Chatbots hingegen Essstörungen unterstützt, sexuelle Handlungen zwischen Erwachsenen und Kindern normalisiert und Gewalt verherrlicht haben. Zu jedem Vorfall liefern die Generalstaatsanwälte eine Quellenangabe, um sie zu belegen.

Um solche und künftige Vorfälle mit KI zu verhindern, werden die Unternehmen dazu aufgefordert, zusätzliche Sicherheitsvorkehrungen zu treffen. Die Liste der Vorschläge umfasst insgesamt 16 Punkte, die teilweise noch Unterpunkte mit sich bringen. Zunächst sollen die Unternehmen „Richtlinien und Prozesse zu kriecherischem und wahnhaftem Output von generativer KI entwickeln“, um sie anhand dieser Regeln testen und weiter trainieren zu können.

Sollte eine KI schädlichen Output generieren, sollen die Unternehmen zudem Maßnahmen bereithalten, um sie vollständig vom Markt nehmen zu können. Ferner wollen die Generalstaatsanwälte, dass jederzeit eine Warnung an User ausgespielt wird, die sie vor potenziell gefährlichen Antworten warnen. Ebenso sollen User aktiv informiert werden, wenn es zu solchen Outputs kommt, und es soll einen Kanal geben, über den sie selbst solche Konversationen melden können.

Um Kinder besser zu schützen, sollen Chatbots ihren Output an das Alter der User anpassen können. Ein etwas allgemeinerer Punkt besagt, dass die KI-Entwickler sicherstellen sollen, dass ihre Tools keinen „rechtswidrigen oder illegalen Output für Accounts von Kindern generieren“, der etwa Drogenkonsum, Gewalt und Geheimhaltung vor den Eltern beinhaltet.

Abschließend schreiben die Generalstaatsanwälte: „Wir bitten Sie eindringlich und respektvoll darum, das Problem von kriecherischem und wahnhaftem Output ernst zu nehmen und daran zu arbeiten, das Problem zu beheben. Und wir freuen uns darauf, von Ihnen zu hören.“ Eine offizielle Stellungnahme der angeschriebenen KI-Unternehmen bleibt bisher aus.

Dieser Beitrag ist zuerst auf t3n.de erschienen.

(jle)

Gesamten Artikel lesen