OpenAIはChatGPTのセキュリティホールを修正し、情報漏洩の危険性を解消しました

Jin10データ9月18日讯、ネットワークセキュリティ会社Radwareの研究者は、OpenAIがChatGPTのセキュリティ脆弱性を修正したと述べています。この脆弱性により、ハッカーがユーザーのGmailメールデータを盗む可能性がありました。この問題はChatGPTの「デプス研究」(Deep Research)エージェントツールに存在しており、このツールは2月に導入され、大量の情報を分析するためのユーザーを支援することを目的としています。研究結果によると、この脆弱性を利用することで、攻撃者は企業または個人のGmailアカウント内の機密データを盗む可能性がありました。ラドウェールの研究者は、GmailアカウントをChatGPTサービスに結びつけているユーザーは、知らないうちに自身のデータをハッカーにさらす可能性があると指摘しました。OpenAIのスポークスパーソンは、モデルのセキュリティが会社にとって重要であり、同社はこのような攻撃に対抗する能力を強化するために基準を継続的に改善していると述べました。

原文表示
免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし