Brevis lanzó recientemente un sistema de autenticidad de medios de extremo a extremo que permite que imágenes y videos prueben criptográficamente su origen mientras protegen los datos del usuario.
El 9 de marzo de 2026, la empresa de computación de pruebas de conocimiento cero Brevis lanzó un sistema de autenticidad de medios de extremo a extremo diseñado para abordar la crisis de confianza en línea. Conocido como Brevis Vera, el sistema permite que imágenes y videos prueben criptográficamente su origen e historia sin exponer los datos del usuario.
Con el crecimiento de los deepfakes más avanzados, la industria ha dependido de detectores de inteligencia artificial (IA) para identificar falsificaciones. Sin embargo, Brevis lo considera una batalla perdida. “Los detectores son un objetivo en movimiento”, dijo la empresa en un blog. “Vera adopta un enfoque diferente. En lugar de preguntar si el medio parece real, permite que el medio pruebe de dónde proviene.”
Las firmas actuales de C2PA autentican los archivos en el momento de la captura, pero se rompen cuando se realizan ediciones, lo que obliga a elegir entre usar archivos en crudo o perder la prueba de autenticidad. Vera cierra esa brecha con Brevis Pico, una máquina virtual de conocimiento cero (zkVM) que genera pruebas matemáticas que muestran que ediciones, como recortes o redimensionamientos, fueron transformaciones legítimas del original.
Según una publicación en un blog, el flujo de trabajo de Vera funciona en tres fases integradas. Primero, los medios son firmados en la fuente de captura por dispositivos habilitados para C2PA. Luego, las pruebas de zkVM preservan esa autenticidad a medida que el archivo pasa por ediciones o compresión. Finalmente, las plataformas muestran una insignia de “Vera certificada” que proporciona a los usuarios un historial completo y verificado del activo digital.
La presentación de la herramienta llega en un momento crítico para la estabilidad global. Solo en el primer trimestre de 2026, el panorama digital ha sido sacudido por imitadores gubernamentales de alta fidelidad y deepfakes hiperrealistas dirigidos a candidatos políticos en elecciones internacionales importantes.
Estos incidentes han alimentado lo que los expertos llaman el “Dividendo del Mentiroso”, un fenómeno donde la mera existencia de deepfakes permite a actores malintencionados descartar evidencia genuina de corrupción o crímenes de guerra como generados por IA. La empresa señaló que la reacción predeterminada ante imágenes impactantes ha cambiado de curiosidad a sospecha. Sin embargo, con Vera, la autenticidad se vuelve la opción predeterminada y la verdad vuelve a ser verificable.