Anthropic ha eliminado una promesa central de seguridad de su Política de Escalamiento Responsable, según un informe de TIME. Los cambios relajan un compromiso que anteriormente prohibía al desarrollador de IA Claude entrenar sistemas avanzados sin garantías de seguridad en su lugar. El movimiento redefine cómo la empresa se posiciona en la carrera por la IA frente a rivales como OpenAI, Google y xAI. Anthropic ha sido durante mucho tiempo uno de los laboratorios más enfocados en la seguridad en la industria, pero bajo la política revisada, ya no promete detener el entrenamiento si las mitigaciones de riesgo no están completamente en su lugar. “Sentimos que no ayudaría a nadie que nosotros detuviéramos el entrenamiento de modelos de IA,” dijo Jared Kaplan, director científico de Anthropic, a TIME. “Realmente no creíamos, con el avance rápido de la IA, que tuviera sentido que hiciéramos compromisos unilaterales… si los competidores están avanzando rápidamente.”
El cambio llega mientras Anthropic se encuentra envuelto en una disputa pública con el Secretario de Defensa de EE. UU., Pete Hegseth, por negarse a conceder al Pentágono acceso completo a Claude, convirtiéndose en el único laboratorio importante de IA, junto con Google, xAI, Meta y OpenAI, en adoptar esa postura. Edward Geist, investigador principal de políticas en la RAND Corporation, dijo que el anterior enfoque de “seguridad en IA” surgió de una comunidad intelectual específica que precedió a los modelos de lenguaje grandes actuales. “Hace unos años, existía el campo de la seguridad en IA,” dijo Geist a Decrypt. “La seguridad en IA estaba asociada con un conjunto particular de ideas que surgieron de la comunidad de personas que se preocupaban por IA poderosa antes de que existieran estos LLMs.” Geist afirmó que los primeros defensores de la seguridad en IA trabajaban con una visión muy diferente de cómo sería la inteligencia artificial avanzada.
“Terminaron conceptualizando el problema de una manera que, en algunos aspectos, imaginaba algo cualitativamente diferente a estos LLMs actuales, para bien o para mal,” dijo Geist. Geist también señaló que el cambio en el lenguaje envía una señal a inversores y responsables políticos. “Parte de esto es una señal a varias partes interesadas de que muchas de estas empresas quieren dar la impresión de que no se están frenando en la competencia económica por preocupaciones sobre ‘seguridad en IA,’” explicó, añadiendo que la terminología en sí misma está cambiando para adaptarse a los tiempos. Anthropic no es la única que revisa su lenguaje de seguridad. ¿Qué define la seguridad en IA? Un informe reciente de la organización sin fines de lucro The Conversation señaló cómo OpenAI también cambió su declaración de misión en su presentación ante el IRS 2024, eliminando la palabra “seguro.” La declaración anterior de la compañía prometía construir una IA de propósito general que “beneficie a la humanidad de manera segura, sin estar limitada por la necesidad de generar beneficios financieros.” La versión actual afirma que su objetivo es “garantizar que la inteligencia artificial general beneficie a toda la humanidad.” “El problema con el término seguridad en IA es que nadie parece saber exactamente qué significa,” dijo Geist. “Por otro lado, el término seguridad en IA también fue controvertido.” La nueva política de Anthropic enfatiza medidas de transparencia como publicar “hojas de ruta de seguridad de frontera” e informes periódicos de “riesgos,” y dice que retrasará el desarrollo si cree que existe un riesgo significativo de catástrofe.
Los cambios en las políticas de Anthropic y OpenAI coinciden con el esfuerzo de las empresas por fortalecer su posición comercial. A principios de este mes, Anthropic anunció que recaudó 30 mil millones de dólares con una valoración de aproximadamente 380 mil millones. Al mismo tiempo, OpenAI está finalizando una ronda de financiación respaldada por Amazon, Microsoft y Nvidia que podría alcanzar los 100 mil millones. Anthropic y OpenAI, junto con Google y xAI, han obtenido lucrativos contratos gubernamentales con el Departamento de Defensa de EE. UU. Sin embargo, para Anthropic, el contrato parece en duda, ya que el Pentágono está considerando si cortar vínculos con la empresa de IA por quejas sobre acceso. A medida que el capital fluye en el sector y la competencia geopolítica se intensifica, Hamza Chaudhry, líder en IA y Seguridad Nacional en el Future of Life Institute, dijo que el cambio en la política refleja dinámicas políticas cambiantes más que una búsqueda de negocios con el Pentágono. “Si ese fuera el caso, simplemente habrían retrocedido respecto a lo que dijo el Pentágono hace una semana,” dijo Chaudhry a Decrypt. “Dario [Amodei] no habría asistido a la reunión.” En cambio, Chaudhry afirmó que la reescritura refleja un punto de inflexión en cómo las empresas de IA hablan sobre el riesgo a medida que aumenta la presión política y la competencia. “Anthropic ahora dice, ‘Miren, no podemos seguir hablando de seguridad, no podemos pausar incondicionalmente, y vamos a impulsar una regulación mucho más ligera,’” concluyó.