Vitalik Buterin responde a la controversia de donación de 500 millones de dólares en SHIB, aclarando la relación real con la organización de riesgo de IA FLI

GateNews
SHIB3,86%
ETH4,25%

12 de marzo, noticias: El cofundador de Ethereum, Vitalik Buterin, respondió recientemente a las afirmaciones de que donó una gran cantidad de fondos al Future of Life Institute (FLI) y participó en acciones políticas relacionadas con la inteligencia artificial. Explicó en detalle el contexto del evento de donación de SHIB y aclaró las diferencias en su postura respecto a la gestión de riesgos de la IA con esa organización.

Vitalik Buterin recordó que en 2021 recibió de repente una gran cantidad de SHIB y otros tokens Meme, que algunos proyectos enviaron a su dirección para marketing, con la mitad de su suministro. En ese momento, estos tokens aumentaron rápidamente de valor, alcanzando un valor en libros de más de mil millones de dólares. Por temor a una burbuja en el mercado, rápidamente gestionó esos activos, convirtiendo la mayor parte en Ethereum y donando a varias instituciones, incluyendo 50 millones de dólares a GiveWell.

De los SHIB restantes, la mitad fue donada a CryptoRelief para apoyar infraestructura médica en India, y la otra mitad fue donada al Future of Life Institute. En ese momento, esa organización le mostró un plan de investigación a largo plazo que abarcaba bioseguridad, riesgos nucleares y gestión de riesgos de inteligencia artificial. Vitalik esperaba que estos tokens solo pudieran venderse por unos 10 a 25 millones de dólares, pero finalmente, la organización logró obtener aproximadamente 500 millones de dólares vendiendo los tokens.

Luego, el Future of Life Institute fue ajustando su enfoque, destinando más recursos a acciones culturales y políticas relacionadas con la gobernanza de la IA. Al respecto, Vitalik expresó su comprensión ante la preocupación por el rápido desarrollo de la inteligencia artificial general, pero también manifestó su inquietud por que acciones políticas a gran escala puedan tener consecuencias imprevistas, como la concentración excesiva de poder o conflictos regulatorios globales.

Vitalik enfatizó que prefiere una vía tecnológica de “desarrollo y adaptación”, mediante la apertura de tecnologías y la creación de infraestructuras seguras para reducir riesgos futuros. Ejemplos de ello son los sistemas de monitoreo del aire, tecnologías de detección temprana de pandemias y hardware verificable y seguro. Recientemente, unos 40 millones de dólares se destinaron a apoyar investigaciones en hardware de computación segura y ciberseguridad, para garantizar que los sistemas futuros sean más confiables frente a amenazas de IA.

A pesar de las diferencias de opinión, Vitalik sigue reconociendo algunas iniciativas del Future of Life Institute, como la “Declaración en favor de la IA humanista”, que busca promover la cooperación entre diferentes regiones y posturas políticas para evitar una concentración excesiva de poder en la IA. Él espera que esa organización mantenga una postura prudente y racional en la gobernanza de la inteligencia artificial para reducir riesgos potenciales.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios