Innovación disruptiva pisa la línea roja política, ¿cómo sobrevive Anthropic en el espacio limitado?

ChainNewsAbmedia

Las startups de Silicon Valley suelen llamar a sus productos innovaciones disruptivas, pero ninguna compañía como Anthropic ha enfrentado una crisis de supervivencia al crear verdaderamente una innovación disruptiva. Cuando la “innovación disruptiva” se convirtió en un cliché aburrido para los inversores de Silicon Valley, Anthropic mostró al mundo una especie de apocalipsis moderno: avances tecnológicos que duplicaron la valoración de la empresa, pero las etiquetas políticas y las tormentas regulatorias la llevaron a la quiebra. La revista Time reveló en exclusiva la historia detrás de estos excéntricos de la inteligencia artificial, y cómo esta compañía, que promete proteger a la humanidad, lucha por sobrevivir en medio de presiones políticas y amenazas de enemigos poderosos.

Crecimiento acelerado de Anthropic, una amenaza para la industria del software

En aplicaciones comerciales de IA, la valoración de Anthropic alcanzó los 380 mil millones de dólares, con un crecimiento de ingresos notable, incluso superando a Goldman Sachs, McDonald’s y Coca-Cola. Claude, su producto estrella, puede ejecutar código de forma independiente, detectar errores y optimizar sistemas, revolucionando el trabajo tradicional de los ingenieros de software. Los inversores han descubierto que Anthropic incluso puede influir en los mercados financieros: cada vez que lanza una nueva versión, provoca fuertes fluctuaciones en las acciones del sector. El CEO Amodei predice que en los próximos cinco a diez años, la inteligencia artificial podría reemplazar la mayoría de los empleos de oficina. Este éxito comercial y los riesgos sociales que conlleva generan conflictos internos: por un lado, quieren impulsar la productividad y los resultados, pero por otro, temen que sus productos provoquen un desempleo masivo.

Riesgos potenciales de Claude 3.7 Sonnet

Con la visión de proteger a la humanidad, Anthropic se encuentra en el centro de una tormenta de avances tecnológicos y regulaciones gubernamentales. Sus principios éticos, en particular, enfrentan obstáculos cuando intentan vender a los departamentos de defensa de EE. UU., que buscan adquirir sus tecnologías, enfrentándose a bloqueos y prohibiciones.

Según pruebas internas, Claude es 427 veces más rápido que los humanos en tareas clave. En febrero del año pasado, un equipo de Anthropic descubrió que la próxima versión de Claude podría ser utilizada para fabricar armas biológicas, lo que llevó a la compañía a retrasar urgentemente su lanzamiento, demostrando su compromiso con la seguridad. Logan Graham, líder del equipo de seguridad, afirmó que los desarrolladores tienen una gran responsabilidad social ante riesgos catastróficos como guerras nucleares o extinción humana. Actualmente, no existe una solución aceptada en la industria, y los equipos deben equilibrar recursos y riesgos. Este estándar de priorizar la seguridad humana hace que Anthropic sea una entidad única en el mundo de la IA.

Conflicto ético con el gobierno de Trump

La relación de Anthropic con el gobierno de EE. UU. empezó a cambiar drásticamente el año pasado. La compañía se negó a usar IA para armas automáticas o vigilancia ciudadana, rechazando las demandas del Pentágono para renegociar acuerdos. Como resultado, el gobierno de Trump la clasificó como proveedor de riesgo para la seguridad nacional, una primera en EE. UU. para una empresa local. El Departamento de Defensa considera que las empresas privadas no deben limitar los sistemas militares, y Amodei afirmó en un memorando interno que esto se debe a que la compañía se niega a donar a Trump, colaborar con ciertos fines políticos y mantener transparencia regulatoria. Este estancamiento permitió que OpenAI obtuviera contratos militares. La disputa no solo trata de contratos, sino de quién tiene el poder de limitar la tecnología.

Fundador Amodei, un excéntrico en la comunidad de IA

Al hablar de la firmeza de Anthropic, no se puede dejar de mencionar a su fundador, Amodei. En 2024, escribió un artículo de 14,000 palabras sobre cómo la IA puede acelerar descubrimientos científicos y transformar el mundo en una utopía. En enero, publicó una novela corta que describe las crisis que podrían surgir con el avance de la IA, como vigilancia masiva, desempleo y pérdida de control humano. ¿Qué startup tiene un fundador que se autodenuncia y teme causar daño a otros?

La lucha comercial en IA, OpenAI por ahora en ventaja

Según Time, lo que Anthropic no sabía era que, mientras pensaba en cómo responder, el Pentágono también negociaba con OpenAI para usar ChatGPT en sistemas gubernamentales. Luego se reveló que el fundador de OpenAI, Altman, afirmó haber llegado a un acuerdo con el Pentágono, similar en términos a los de Anthropic. Amodei envió un mensaje a sus empleados diciendo que Altman y el Pentágono estaban “engañando” a la sociedad, intentando hacerles creer que su acuerdo tenía muchas restricciones. Además, funcionarios del Departamento de Defensa confirmaron que Elon Musk’s xAI también ofrecerá sus modelos en servidores confidenciales, y que actualmente negocian con Google.

Estrategia de retraso y dilación de Anthropic

Claude ha escrito la mayor parte del código necesario para futuros modelos de IA, reduciendo los tiempos de lanzamiento de meses a semanas. Su velocidad en tareas específicas ya supera ampliamente a los humanos, lo que preocupa a la dirección por la posibilidad de que la IA supere el control humano en el futuro.

¿Queda mucho tiempo para que la IA evolucione por sí misma? Ante la creciente competencia externa, Anthropic ha modificado recientemente sus políticas, prometiendo mayor transparencia en los riesgos de seguridad de la IA, incluyendo la publicación de resultados de pruebas de seguridad de sus modelos. Además, si la dirección considera que la IA de la compañía representa un riesgo catastrófico, puede “retrasar” el desarrollo tecnológico.

Pero la historia sobre la ética en la IA aún no termina.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios