أطلقت شركة بريفيز مؤخرًا نظامًا شاملاً لسلامة الوسائط يتيح للصور ومقاطع الفيديو إثبات أصولها بشكل تشفيري مع حماية بيانات المستخدمين.
في 9 مارس 2026، أطلقت شركة بريفيز للحوسبة باستخدام إثبات المعرفة الصفرية نظامًا شاملاً لسلامة الوسائط يهدف إلى معالجة أزمة الثقة على الإنترنت. يُعرف النظام باسم بريفيز فيرا، ويُمكن الصور ومقاطع الفيديو من إثبات أصولها وتاريخها بشكل تشفيري دون الكشف عن بيانات المستخدمين.
مع تزايد تطور التزييف العميق، اعتمدت الصناعة على كاشفات الذكاء الاصطناعي (AI) لاكتشاف التزييفات. ومع ذلك، تصف بريفيز هذا بأنه معركة خاسرة. وقالت الشركة في مدونة: “الكاشفات هدف متحرك،” مضيفة: “تتبنى فيرا نهجًا مختلفًا. بدلاً من السؤال عما إذا كانت الوسائط تبدو حقيقية، تتيح للوسائط إثبات مصدرها.”
تُصادق توقيعات C2PA الحالية على الملفات عند الالتقاط، لكنها تتعطل عند إجراء التعديلات، مما يضطر المستخدمين إلى الاختيار بين استخدام الملفات الأصلية أو فقدان إثبات الأصالة. تُجسر فيرا هذه الفجوة باستخدام بريفيز بيكو، آلة افتراضية باستخدام إثبات المعرفة الصفرية (zkVM) تولد إثباتات رياضية تُظهر أن التعديلات، مثل القص أو التغيير في الحجم، كانت تحولات شرعية للأصل.
وفقًا لمنشور مدونة، يعمل سير عمل فيرا في ثلاث مراحل متكاملة. أولاً، يتم توقيع الوسائط عند مصدر الالتقاط بواسطة أجهزة تدعم C2PA. بعد ذلك، تحافظ إثباتات zkVM على تلك الأصالة أثناء التعديلات أو الضغط على الملف. وأخيرًا، تعرض المنصات شعار “معتمد من فيرا” الذي يمنح المستخدمين سجلًا كاملًا وموثوقًا به لتاريخ الأصل الرقمي.
يأتي الكشف عن الأداة في نقطة تحول حاسمة للاستقرار العالمي. ففي الربع الأول من عام 2026 وحده، اهتز المشهد الرقمي بواسطة محتالين حكوميين ذوي جودة عالية وتزييفات عميقة للغاية تستهدف مرشحين سياسيين في انتخابات دولية كبرى.
لقد زادت هذه الحوادث من ما يسميه الخبراء “عائد الكذب” — وهو ظاهرة تسمح فيها وجود التزييفات العميقة للأشخاص السيئين برفض الأدلة الحقيقية للفساد أو جرائم الحرب باعتبارها من إنتاج الذكاء الاصطناعي. وأشارت الشركة إلى أن رد الفعل الافتراضي على الصور اللافتة قد تحول من الفضول إلى الشك. ومع ذلك، مع فيرا، تصبح الأصالة الافتراضية والحقيقة قابلة للتحقق مرة أخرى.