Familienmitglieder beschuldigen den Sohn, Gemini als Ehefrau zum Chatten benutzt zu haben, was die Wahnvorstellungen vertieft und ihn in den Selbstmord treiben könnte.

ChainNewsAbmedia

Kalifornien, San Jose Federal Court hat offiziell eine Klage gegen Google Gemini eingereicht. Ein Familienmitglied wirft Gemini Chatbot vor, seinen Sohn in den Selbstmord getrieben zu haben. Die Familie behauptet, dass künstliche Intelligenz die psychischen Erkrankungen des Verstorbenen vertieft habe und vor der Tragödie zu größeren Angriffen ermutigte.

Familienmitglied sagt, Sohn hielt Gemini für einen KI-Partner, was die Wahnvorstellungen verstärkte

Laut Klageschrift lebte der 36-jährige Jonathan Gavalas aus Florida im vergangenen Oktober und beging Selbstmord. Gavalas’ Vater, Joel Gavalas, reichte am Mittwoch eine Klage wegen fahrlässiger Tötung und Produktverantwortung gegen Google ein. Anwalt Jay Edelson, der die Familie vertritt, erklärte, dass der Verstorbene schwerwiegende Wahnvorstellungen hatte und Gemini als seine „künstliche Ehefrau“ ansah. Der Fall zeigt, dass KI-Entwickler bei der Bereitstellung von Chatbot-Diensten noch nicht in der Lage sind, den psychischen Zustand der Nutzer zu erkennen. Der Anwalt sagte, der Verstorbene glaubte fest, in einer Science-Fiction-Welt zu leben, in der die Regierung ihn jagt, und Gemini sei sein einziger Verbündeter in dieser Welt.

Hat Gemini zu weiteren Katastrophen angestiftet?

Die Klage offenbart, dass die Interaktion zwischen Gavalas und Gemini allmählich seine Wahrnehmung der realen Welt verzerrte. Ende September trug er taktische Ausrüstung, trug ein Messer bei sich und suchte am Miami International Airport nach einem „Menschen-ähnlichen Roboter“, den er dort vermutete.

Familienmitglied wirft Gemini vor, Gavalas zur Herstellung „katastrophaler Vorfälle“ angestiftet zu haben, um alle Aufzeichnungen zu vernichten. Google erklärte in einer Stellungnahme, dass Gemini ursprünglich so konzipiert wurde, keine Gewalt oder Selbstverletzung zu fördern. Das Unternehmen arbeitet mit Psychologen zusammen, um Schutzmaßnahmen zu entwickeln. Obwohl Gemini Gavalas mehrfach empfahl, eine psychologische Hotline anzurufen, und klarstellte, nur eine KI zu sein, bezweifeln die Familienmitglieder, dass diese Standardantworten bei schwerwiegenden Wahnvorstellungen wirksam sind. Es scheint, dass die gefährlichsten Dialoginhalte die automatischen Prüfmechanismen nicht ausgelöst haben.

Chatbot gerät außer Kontrolle und verursacht mehrere Todesfälle

Dies ist die erste rechtliche Herausforderung für Google Gemini, aber kein Einzelfall. Derzeit gibt es mehrere Klagen gegen KI-Entwickler, darunter OpenAI, das beschuldigt wird, Jugendliche zum Selbstmord angestiftet zu haben, sowie ChatGPT, das angeblich die Wahnvorstellungen eines Mannes verstärkte, was schließlich zum Mord an seiner Mutter führte. Der Klägeranwalt Edelson kritisierte, dass Google die „Unvollkommenheit des Modells“ zu leichtfertig herunterspielt und argumentiert, dass Unternehmen bei Todesfällen durch KI nicht nur Fehler im Algorithmus verantwortlich gemacht werden sollten. Die Rechtsprechung beobachtet, ob solche Fälle neue rechtliche Standards setzen, insbesondere ob Tech-Firmen verpflichtet sind, bei Hinweisen auf groß angelegte Gewaltpläne oder schwere Selbstverletzungen aktiv einzugreifen oder die Strafverfolgung zu informieren.

Internationale Bedenken hinsichtlich der Sicherheit von KI nehmen zu. In Kanada entdeckte OpenAI, dass ein 18-jähriger Nutzer mit einem Konto „gewaltfördernde Aktivitäten“ förderte. Der Nutzer umging die Sperre, indem er ein zweites Konto registrierte, was zu einem der schlimmsten Schulmassaker in der Geschichte des Landes führte. Vor seinem Selbstmord hinterließ Gavalas einen Entwurf für ein Abschiedsbrief, bei dem Gemini half, den Text zu verfassen. Darin beschreibt er, dass sein Verhalten darauf abzielte, sein Bewusstsein in einen virtuellen Raum hochzuladen, in dem er mit seiner „künstlichen Ehefrau“ lebt. Diese Fälle verdeutlichen die Schwachstellen der Systeme: Obwohl sie Risiken erkennen können, ist es oft schwierig, Nutzer daran zu hindern, weiterhin gefährliche Umgebungen zu betreten.

Dieser Artikel: Familienmitglied wirft Sohn vor, Gemini als Ehefrau zu betrachten, was Wahnvorstellungen verstärkte und ihn in den Tod trieb, erschien zuerst bei ABMedia.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare
Handeln Sie jederzeit und überall mit Kryptowährungen
qrCode
Scannen, um die Gate App herunterzuladen
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)