AI-Privatsphäre-Kollaps "ChatGPT-Gespräch" nackt vor dem Gesetz; Altman: Ich habe Angst, persönliche Daten einzugeben, und es ist schwer zu wissen, wer die Daten erhalten wird.

動區BlockTempo
VON0,86%
ETH5,03%

Sam Altman, CEO von OpenAI, warnt davor, dass Gespräche mit ChatGPT nicht durch das Anwaltsgeheimnis geschützt sind und zu Beweismitteln in Rechtsstreitigkeiten werden können, was Bedenken hinsichtlich der Lücken in der Privatsphäre der KI und der Ausweitung der Überwachung aufkommen lässt. (Synopsis: Sam Altman blickt von unerfahrenen Vätern auf die Zukunft der KI: Humanoide Roboter kommen, sind Sie bereit?) (Hintergrundergänzung: Kann KI den Fall kippen? Keine Anwältin verlässt sich auf ChatGPT, um 5 Millionen Erbschaftsbetrügereien auszugraben und das Gericht davon zu überzeugen, die Ermittlungen neu zu starten KI ist nahtlos in den Alltag integriert worden, aber die versteckten Sorgen, die mit der Bequemlichkeit einhergehen, werden ins Rampenlicht gerückt: Jeder, der heute ein Wort in ChatGPT eingibt, kann morgen vor Gericht erscheinen. Sam Altman, CEO von OpenAI, warnte kürzlich in einem Gespräch mit dem Podcast-Moderator Theo Von: “Wenn Sie die sensibelsten Inhalte mit ChatGPT teilen, werden wir möglicherweise aufgefordert, sie im Falle eines Rechtsstreits zur Verfügung zu stellen. Derzeit gibt es einen Schutz des Anwaltsgeheimnisses, wenn man mit einem Therapeuten, Anwalt oder Arzt spricht, aber wir haben keinen solchen Mechanismus für Gespräche mit ChatGPT eingerichtet.” Ein Satz offenbart eine Lücke, die lange übersehen wurde. Krankenakten, Anwaltsgespräche und religiöse Bekenntnisse sind alle durch Gesetze oder ethische Kodizes geschützt, und der gerichtliche Zugang muss hohe Schwellenwerte überschreiten; Chatbots verfügen nicht über diese Firewall, und der Text der Interaktion des Benutzers mit dem Modell ist nicht gesetzlich ausgenommen, und der Dienstanbieter muss die Datei so lange übergeben, wie die gerichtliche Vorladung zugestellt wird. Konflikt zwischen Richtlinie und Rechtsstreitigkeiten Obwohl die Datenschutzrichtlinie auf der offiziellen Website von OpenAI besagt, dass Daten während der Übertragung verschlüsselt werden, bietet sie keine Ende-zu-Ende-Verschlüsselung. In dem Dokument heißt es auch, dass Benutzerinhalte “an Dritte weitergegeben werden können”. Diese Art von Flexibilität, die im Geschäftsbetrieb üblich ist, ist in letzter Zeit an den Rand des Widerspruchs gestoßen. In der Urheberrechtsklage der New York Times kollidierte die Anordnung des Gerichts, die OpenAI verpflichtete, alle relevanten Nutzerdaten aufzubewahren, direkt mit der vom Unternehmen beworbenen Erklärung “Löschen oder Minimieren der Sammlung”, was den Mangel an granularer Klassifizierung von KI-Diensten im aktuellen Rechtsrahmen deutlich macht. Wenn das Training von KI-Modellen einen großen Korpus erfordert, neigen Unternehmen dazu, Text lange Zeit zu speichern, um Algorithmen zu optimieren. Sobald ein offizielles Dokument in die Zuständigkeit fällt, verliert der Benutzer das Recht auf Löschung. Der Rhythmus von Recht und Technologie ist aus dem Takt geraten, was Konflikte unvermeidlich macht. Altman sagte: "Das ist wahrscheinlich einer der Gründe, warum ich manchmal Angst habe, bestimmte KI-Technologien zu verwenden, weil ich nicht weiß, wie viele persönliche Informationen ich eingeben möchte, weil ich nicht weiß, wer diese Informationen haben wird. Es ist keine abstrakte Befürchtung, dass Unternehmen Überwachungsprobleme haben könnten, nachdem sie persönliche Informationen haben. Sobald Chats in großem Umfang durchsuchbar sind, haben Regierungen und Unternehmen einen Anreiz, Echtzeitgespräche in Risikobewertungen oder Verhaltensvorhersagen umzuwandeln. Für Anwälte, Ärzte, Psychologen und andere Fachleute kann die Verwendung von ChatGPT zur Beantwortung von Kunden- oder Patientenfragen, die scheinbar Zeit sparen, gegen die Berufsethik verstoßen. Da der Dienstanbieter das Recht hat, den hochgeladenen Text zu analysieren, ist dies gleichbedeutend mit der Offenlegung von Kundengeheimnissen gegenüber Dritten. Altman merkte weiter an: “Ich mache mir Sorgen, dass die Überwachung umso allgegenwärtiger sein wird, je mehr KI es auf der Welt gibt. Die Geschichte hat immer wieder bewiesen, dass Regierungen in dieser Hinsicht dazu neigen, zu weit zu gehen, und das beunruhigt mich sehr.” Das traditionelle Anwaltsgeheimnis verlangt, dass Informationen nur zwischen den Parteien zirkulieren; Die Einführung von KI ist gleichbedeutend mit einem zusätzlichen Paar unsichtbarer Augen, und es gibt keine vorgefertigten Vorkehrungen, um das gleiche Schutzniveau zu gewährleisten. Fachleute, die ihre Verträge und Arbeitsabläufe nicht aktualisieren, verstoßen wahrscheinlich unwissentlich gegen das Gesetz. Ein sichereres KI-Ökosystem muss sich in drei Achsen gleichzeitig bewegen. Zunächst sollte der Gesetzgeber klare Regeln des “digitalen Rechtsprivilegs” formulieren, die bestimmte Chats verschlüsseln und in die hohe Schwelle der gerichtlichen Forensik einbeziehen. Darüber hinaus müssen Unternehmen Ende-zu-Ende-Verschlüsselung, minimalen Speicherplatz und Kundenautonomie in das Produktdesign integrieren, anstatt Lücken im Nachhinein zu stopfen. Das Wichtigste und was wir tun können, ist, dass die Nutzer die Initiative ergreifen, hochsensible Informationen von allgemeinen Anfragen zu trennen und bei Bedarf auf traditionelle sichere Kanäle ausweichen. Die Effizienz von KI sollte nicht auf Kosten der Privatsphäre gehen. Da Dialogfelder Tastaturen und Telefone ersetzen, braucht es nicht Stille, sondern überprüfbare rechtliche Garantien und technische Leitplanken. Altmans Mahnung mag nicht angenehm sein, aber sie bietet einen Spiegel: eine Reflexion der wachsenden Kluft zwischen der Geschwindigkeit der Innovation und der institutionellen Reparatur. Die Lücken zu schließen, ist der einzige Weg, damit KI der Gesellschaft wirklich nützt. Ähnliche Berichte Stellen Sie sich RobotFi vor: Roboter sind auch in der Kette, welches neue Gameplay werden sie bringen? Vitaliks Bot “miau” sorgte für hitzige Diskussionen, Ethereum-Community: All mein Geld wird auf Leute gedrückt, die Katzenbellen lernen Rechenleistung ist König! Huang Jenxun darüber, wie KI die globalen Wertschöpfungsketten rekonstruieren wird, wenn Roboter weit verbreitet sein werden und KI die Rückkehr der Fertigung in die Vereinigten Staaten beschleunigen wird? “KI-Datenschutzkollaps “ChatGPT-Konversation” nackt vor dem Gesetz; Altman: Ich habe Angst, persönliche Informationen einzugeben, es ist schwer zu wissen, wer die Informationen erhält” Dieser Artikel wurde zuerst in BlockTempos “Dynamic Trend - The Most Influential Blockchain News Media” veröffentlicht.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare
Handeln Sie jederzeit und überall mit Kryptowährungen
qrCode
Scannen, um die Gate App herunterzuladen
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)