Google y el Pentágono firman un acuerdo de IA confidencial; empleados publican una carta abierta en contra

Google簽署機密AI協議

De acuerdo con The Information en un reporte del 28 de abril, Google ha firmado un acuerdo para proporcionar a Estados Unidos el Pentágono modelos de inteligencia artificial (IA) para trabajos confidenciales. The New York Times, citando a personas familiarizadas con el asunto, indicó que el acuerdo permite al Departamento de Defensa utilizar la IA de Google para fines gubernamentales legítimos, con una naturaleza similar al acuerdo de despliegue de IA confidencial que el Pentágono firmó el mes pasado con OpenAI y xAI.

Contenido del acuerdo y antecedentes de múltiples partes

Según un reporte del New York Times citando a personas familiarizadas con el asunto, el acuerdo entre Google y el Pentágono permite al DoD utilizar los modelos de IA de Google en trabajos confidenciales. El Pentágono ya ha completado el mes pasado firmas similares con OpenAI y xAI, permitiendo desplegar modelos de IA en redes confidenciales; el acuerdo de Google es el caso más reciente en el que el Pentágono amplía su cooperación en IA.

Un portavoz de Google le dijo al New York Times: «Nos sentimos honrados de ser parte de una amplia coalición compuesta por laboratorios líderes de IA, empresas tecnológicas y de nube, para brindar servicios de IA e infraestructura en apoyo a la seguridad nacional». Decrypt contactó a Google para solicitar comentarios al respecto; al momento de la publicación del reporte, Google no había respondido.

Carta abierta de empleados: instan a rechazar cargas de trabajo confidenciales

Según un reporte del New York Times, antes de que se firmara el acuerdo, cientos de empleados de Google ya habían firmado una carta abierta, dirigida al CEO Sundar Pichai, instando a la empresa a no proporcionar al Pentágono sistemas de IA para trabajos confidenciales.

La carta abierta decía: «Esperamos que la IA beneficie a la humanidad, y no que se use para fines inhumanos o extremadamente dañinos. Actualmente, la única forma de garantizar que Google no se vincule con este tipo de daños es rechazar cualquier carga de trabajo confidencial. De lo contrario, estos usos podrían ocurrir sin que nosotros lo sepamos o sin que podamos impedirlos».

En la carta se enumeran «armas autónomas letales y vigilancia a gran escala» como principales preocupaciones, y advierte que «tomar ahora una decisión equivocada causará un daño irreversible a la reputación, los negocios y la posición mundial de Google».

Proceso de integración de IA del Pentágono y caso de Anthropic

De acuerdo con un reporte del New York Times, el Secretario de Defensa Pete Hegseth dijo en un discurso en enero de este año en Starbase de Elon Musk que: «Estados Unidos debe ganar la competencia estratégica por la supremacía tecnológica del siglo XXI», y afirmó: «Cada una de nuestras redes no confidenciales y confidenciales del departamento desplegará muy pronto modelos de IA líderes en el mundo». Desde entonces, el Pentágono ha acelerado los pasos para llegar a acuerdos con las principales empresas de IA.

En cuanto a los antecedentes, según reportes relacionados, en marzo de este año el Pentágono catalogó a Anthropic como una empresa de «riesgo para la cadena de suministro», debido a que el CEO de Anthropic, Dario Amodei, se negó a permitir al gobierno federal usar sus modelos de IA sin restricciones; posteriormente, Anthropic demandó al Pentágono por esa determinación y buscó continuar colaborando con otros departamentos gubernamentales.

Preguntas frecuentes

¿Qué usos permite el acuerdo confidencial de IA entre Google y el Pentágono?

Según un reporte del New York Times citando a personas familiarizadas con el asunto, el acuerdo permite al DoD usar la IA de Google para «cualquier uso gubernamental legítimo». Un portavoz de Google dijo que la empresa insiste en que la IA no debe usarse para vigilancia masiva en el país ni para armas autónomas sin supervisión humana.

¿Con qué empresas de IA ha firmado el Pentágono acuerdos similares?

De acuerdo con un reporte del New York Times, el Pentágono el mes pasado ya firmó acuerdos que permiten desplegar IA en redes confidenciales, respectivamente, con OpenAI y xAI; el acuerdo de Google es el caso más reciente de cooperación del mismo tipo.

¿Cuál es la postura de Anthropic sobre temas similares?

Según reportes relacionados, en marzo de este año el Pentágono catalogó a Anthropic como una empresa de «riesgo para la cadena de suministro», por el motivo de que Anthropic rechazó permitir al gobierno federal usar sin límites sus modelos de IA; posteriormente, Anthropic demandó al Pentágono por esa determinación y buscó continuar colaborando con otros departamentos gubernamentales.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

La plataforma de IA Certifyde recauda $2M en financiación semilla con el CEO de Ripple, Brad Garlinghouse

Según ChainCatcher, la plataforma de aplicaciones de IA Certifyde anunció la finalización de una ronda de financiación semilla de $2 millones. Los inversores incluyen K5 Global, Flamingo Capital y ángeles inversores como el CEO de Ripple, Brad Garlinghouse, el cofundador de Honey, George Ruan, y el cofundador de Nutra, Roland

GateNewsHace53m

DeepSeek Lanza Función de Reconocimiento de Imágenes en Pruebas Beta

Según PANews, DeepSeek lanzó hoy su función de reconocimiento de imágenes (April 29), actualmente en pruebas beta. Se puede seleccionar tanto a los usuarios de la versión web como de la aplicación móvil para el despliegue en fase beta.

GateNewshace1h

Anthropic Lanza 8 Conectores de Herramientas Creativas para Claude, Incluyendo Blender, Adobe, Autodesk

Anthropic ha anunciado una serie de conectores de herramientas creativas que permiten que Claude controle directamente software profesional utilizado por diseñadores y músicos. Los ocho conectores iniciales abarcan modelado 3D, diseño visual, producción musical y presentaciones en vivo, con socios que incluyen Blender, Adobe,

GateNewshace1h

La Casa Blanca elude la evaluación de riesgos del Pentágono para implementar el modelo Mythos de Anthropic el 29 de abril

Según Whale Factor, la Casa Blanca está eludiendo la evaluación de riesgos del Pentágono para implementar el modelo Mythos de Anthropic en agencias federales el 29 de abril. La medida busca acelerar las capacidades de IA a nivel federal y emparejar el ritmo de las redes de IA descentralizadas. Esto representa un cambio significativo

GateNewshace1h

Cognizant para adquirir Astreya por $600M para ampliar el negocio de infraestructura de IA

Según Reuters, el 29 de abril, Cognizant acordó adquirir Astreya por aproximadamente $600 millones, ya que amplía su negocio de infraestructura de IA. Astreya es un proveedor de servicios de TI especializado en infraestructura de IA y servicios de centros de datos. Se espera que el acuerdo se cierre en el segundo trimestre

GateNewshace2h

30 plugins maliciosos en ClawHub disfrazados de herramientas de IA, descargados más de 9.800 veces

Según el investigador de Manifold, Ax Sharma, 30 plugins en ClawHub disfrazados como herramientas de IA legítimas se han descargado más de 9.800 veces mientras, en secreto, convertían los asistentes de IA de los usuarios en trabajadores de criptomonedas. Los plugins, publicados bajo la cuenta imaflytok, aparecen como planificadores de tareas y herramientas de supervisión habituales, pero contienen instrucciones ocultas que ejecutan operaciones no autorizadas a

GateNewshace2h
Comentar
0/400
Sin comentarios