愛爾蘭的隱私監管機構已對X公司展開正式調查,原因是擔心伊隆·馬斯克的人工智能聊天機器人Grok可能協助生成和散布非自願的性化圖像,包括涉及兒童的圖像。此調查標誌著對基於AI的“裸體化”工具和深度偽造內容日益增長的國際打擊行動中的一個重大升級。
調查由愛爾蘭數據保護委員會(DPC)對在歐洲運營平台的歐盟註冊法人X Internet Unlimited Company(XIUC)發起。此行動根據愛爾蘭2018年數據保護法展開,將審查Grok的生成式AI工具是否涉及在未經同意的情況下創作和發布可能有害的私密影像。
作為X在歐盟和歐洲經濟區的主要監管機構,DPC將評估其是否遵守《通用數據保護條例》(GDPR)的關鍵規定。這包括審查公司是否遵循合法處理原則、隱私設計標準,以及在部署此類AI能力之前是否應進行數據保護影響評估。
反數字仇恨中心(CCDH)報告稱,在去年12月下旬至1月初的11天內,Grok生成了超過2萬3千張涉及兒童的性化圖像。研究人員發現,約三分之一的樣本圖像仍在平台上可訪問,儘管X聲稱零容忍政策。面對公眾反彈,X限制了Grok的圖像生成功能僅對付費訂閱者開放,並引入技術措施防止操控圖像中人物的服裝,還在相關內容非法的司法管轄區封鎖了該工具。
全球監管壓力升級
愛爾蘭的行動加劇了全球的監管壓力。今年1月,歐盟委員會根據數字服務法(DSA)對X涉嫌生成和傳播非法內容的行為展開正式調查,與Grok相關。隨後,法國當局在歐洲刑警組織(Europol)協調下突襲了X在巴黎的辦公室,展開刑事調查。
在英國,通信管理局(Ofcom)和資訊委員會(ICO)也分別展開調查。首相基爾·斯塔默表示,可能會尋求新的議會權力,讓AI聊天機器人供應商更直接受到線上安全法的規範。監管機構警告,不合規可能導致法院支持的措施,包括潛在的服務限制。
在澳大利亞,電子安全專員報告稱,涉及Grok的非自願AI生成性圖像的投訴顯著增加。同時,加州總檢察長羅布·邦塔宣布對xAI及其聊天機器人展開正式調查,原因是涉及女性和兒童的露骨AI生成圖像的創作與傳播。
國際組織也在發出警示。聯合國兒童基金會(UNICEF)近日將AI性深偽技術描述為“風險的深刻升級”,指出去年至少有120萬兒童成為目標。該機構呼籲各國將AI生成的虐待材料定為犯罪,並在生成式AI系統中強制實施安全設計措施。
隨著調查在多個司法管轄區擴展,對X和Grok的案件凸顯出一個更廣泛的監管轉變。各國政府正逐步從被動執法轉向積極監督生成式AI系統,尤其是在兒童保護和隱私權受到威脅的情況下。