Das US-Militär nutzte Anthropic's Claude AI in Operationen im Nahen Osten trotz Trumps Verbot

GateNews

Gate News Bot-Nachricht: The Wall Street Journal berichtet, dass die US-Militärschläge im Nahen Osten das AI-System Claude von Anthropic nutzten, obwohl Trump nur wenige Stunden vor den Operationen ein Verbot verhängt hatte. Die Angriffe wurden mit der KI-Technologie durchgeführt, obwohl die Exekutivverordnung erlassen wurde.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare
Handeln Sie jederzeit und überall mit Kryptowährungen
qrCode
Scannen, um die Gate App herunterzuladen
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)