OpenAI kooperiert mit Paradigm bei der Einführung von EVMbench, um die Fähigkeiten von KI-Agenten bei Angriffen und Verteidigung in EVM-Verträgen zu testen und die Sicherheitslage zu offenbaren.
Der führende Anbieter Künstlicher Intelligenz, OpenAI, kündigte eine Zusammenarbeit mit dem bekannten Kryptowährungs-Risikokapitalgeber Paradigm sowie dem Sicherheitsunternehmen OtterSec an, um das Benchmark-Tool EVMbench zu entwickeln, das die Sicherheitsleistung von KI-Agenten (AI Agents) bei Ethereum Virtual Machine (EVM)-Smart Contracts bewertet.
Mit der zunehmenden Verschmelzung von KI und Krypto-Technologien sind Smart Contracts zu einer zentralen Infrastruktur für die Verwaltung von über 100 Milliarden an Open-Source-Kryptogütern geworden. Die Einführung dieses Tools markiert den Beginn einer ernsthaften Auseinandersetzung der Branche mit den praktischen Fähigkeiten von KI in wirtschaftlich relevanten Umgebungen.
Das OpenAI-Team betont, dass mit den Fortschritten der KI-Agenten in den Bereichen Programmieren und Planung, diese Modelle künftig eine transformative Rolle bei Angriffen und Verteidigungen auf Blockchain spielen werden. Daher ist die Entwicklung eines standardisierten Bewertungsrahmens für die Überwachung des KI-Fortschritts von entscheidender Bedeutung.
Das Kernkonzept von EVMbench basiert auf 120 hochriskanten Schwachstellen, die aus 40 professionellen Audit-Berichten extrahiert wurden. Die Daten stammen aus bekannten öffentlichen Audit-Wettbewerben wie Code4rena, um realitätsnahe Testszenarien zu gewährleisten. Das Benchmark-Tool bewertet die KI-Agenten in drei unterschiedlichen Arbeitsmodi:
Abbildung: Das Kerndesign von OpenAI EVMbench ist es, KI-Agenten in drei verschiedenen Modi zu testen
Um die Strenge und Reproduzierbarkeit der Tests zu gewährleisten, hat das Team eine auf Rust basierende Testarchitektur entwickelt, die durch deterministische Transaktionswiedergabe überprüft, ob Angriffe oder Patches erfolgreich sind.
Die ersten Testergebnisse zeigen eine deutliche Leistungsdifferenz zwischen den verschiedenen Aufgaben. Die neueste Generation, GPT-5.3-Codex, zeigt im Exploit-Modus eine hervorragende Leistung mit einer Punktzahl von 72,2 %, verglichen mit nur 31,9 % bei dem vor sechs Monaten veröffentlichten GPT-5-Modell. Dies verdeutlicht eine erstaunliche Steigerung der Angriffsfähigkeit.
Abbildung: Übersicht der Punktzahlen verschiedener KI-Modelle in den drei Modi
Dies zeigt, dass KI bei klaren Zielen wie „Geld leeren“ über starke iterative Planungs- und Ausführungskapazitäten verfügt. Auf der Verteidigungsseite sind die Ergebnisse jedoch eher schwach: Die KI neigt dazu, bei der Erkennung nur eine einzelne Schwachstelle zu finden und die Suche dann abzubrechen. Bei komplexen Logik-Repair-Aufgaben ist es oft schwierig, Schwachstellen zu beheben, ohne die normale Funktion des Vertrags zu beeinträchtigen. Sicherheitsexperten äußern Bedenken, dass KI die Zeit von Schwachstellenentdeckung bis zur Entwicklung von Angriffsmethoden erheblich verkürzen könnte, was höhere Anforderungen an die Verteidigung von DeFi-Projekten stellt.
Neben der Tool-Entwicklung investiert OpenAI auch in Talentakquise und Ökosystemverteidigung. Kürzlich wurde der Gründer des OpenClaw-Projekts, Peter Steinberger, eingestellt, um die Entwicklung personalisierter KI-Agenten der nächsten Generation zu leiten, und das Projekt wird in ein von OpenAI unterstütztes Foundation-Modell umgewandelt.
Um den möglichen Cybersecurity-Risiken durch KI entgegenzuwirken, kündigte OpenAI an, im Rahmen seines Cybersecurity-Förderprogramms 10 Millionen US-Dollar an API-Guthaben bereitzustellen, um Open-Source-Verteidigungstools und kritische Infrastruktur zu unterstützen. Diese Initiative ist besonders relevant nach dem kürzlichen Vorfall bei Moonwell, bei dem ein Fehler im gemeinsam genutzten Code zu einem Verlust von etwa 1,78 Millionen US-Dollar führte.
Weiterführende Literatur
Ablehnung eines Milliardenangebots von Meta, OpenClaw-Gründer schließt sich OpenAI an – Talentwettbewerb entbrennt
Vibe Coding-Fehler? Moonwell-Orakel versagt, 1,78 Mio. Verlust – wer trägt die Kosten?
Zukünftig wird es immer wichtiger, mit Tools wie EVMbench zwischen Modellen zu unterscheiden, die nur Schwachstellen beschreiben können, und solchen, die zuverlässige Verteidigungsstrategien bieten, insbesondere wenn mehr KI-gestützte Stablecoin-Zahlungsagenten und automatisierte Wallets in das Ökosystem integriert werden.
Verwandte Artikel
Cardone setzt $5 Milliarden auf Tokenisierung von Immobilien
MoonPay, PayPal und M0 starten PYUSDx Stablecoin-Tokenisierungs-Framework
XRP Ledger treibt $280 Million Diamant-Tokenisierung in einem großen realen Vermögenswert-Deal in den VAE an
Vitalik: EIP-8141 wird voraussichtlich innerhalb eines Jahres umgesetzt und löst das Problem der Kontenabstraktion vollständig
Ripple erweitert die XRPL-Ökosystemstrategie mit neuen Finanzierungen und Accelerator-Programmen für 2026