Kolumbianisches Gericht weist Berufung gegen KI-gestriebenes Schreiben ab, wird dann aber von seinem eigenen KI-Detektor markiert

Decrypt

Kurzfassung

  • Kolumbiens Oberstes Gericht wies eine Cassation ein, nachdem KI-Detektoren sie als maschinengeneriert erkannt hatten.
  • Anwälte überprüften das Urteil mit denselben Tools und stellten fest, dass es ebenfalls KI-geschrieben zu sein schien.
  • Experten und Studien zeigten, dass KI-Erkennungssoftware unzuverlässige und inkonsistente Ergebnisse liefert.

Das Oberste Gericht Kolumbiens lehnte eine Cassation ab, weil es behauptete, das Dokument sei von KI erstellt worden. Doch dasselbe Tool, das das Gericht zur Bestimmung der angeblichen KI-Urheberschaft verwendete, sagte auch, dass sein eigenes Urteil mit generativer Hilfe entstanden sei. Handelt es sich um eine doppelte Standard des Gerichts oder um fehlerhafte Werkzeuge? „Angesichts des begründeten Verdachts, dass die vom Anwalt eingereichte Kurzfassung nicht vom Rechtsanwalt selbst verfasst wurde, legte das Gericht den Text dem Winston-KI-Tool vor“, argumentierte das Gericht. „Seine Analyse ergab, dass der Text nur 7 % menschlichen Inhalt enthielt, was auf einen deutlichen Einfluss automatisierter Schreibweise hindeutet und zu dem Schluss führt, dass er mit künstlicher Intelligenz produziert wurde.“

 Nach der Analyse mit anderen Tools, die ähnliche Ergebnisse lieferten, entschied das Gericht, dass „da die Einreichung nicht als ordnungsgemäß eingereichtes Schriftsatz angesehen werden kann, ihre Ablehnung als unzulässig erfolgen muss.“ Doch als das Gerichtsurteil von Rechtsexperten erneut geprüft wurde, zeigten sich ähnliche Resultate. „Ich habe den Text des Urteils Auto AP760/2026 vom Obersten Gerichtshof mit derselben Winston-KI-Software geprüft, die im Urteil zitiert wurde“, schrieb Anwalt Emmanuel Alessio Velasquez am Dienstag auf X. „Das Ergebnis: Das Dokument enthält 93 % KI-generierten Text.“

Ich habe den Text des Urteils AP760/2026 des @CorteSupremaJ mit derselben Winston-KI-Software geprüft, die im Urteil erwähnt wird. Das Ergebnis: Das Dokument besteht zu 93 % aus „mit KI generiertem Text“. https://t.co/xTm2jI4d70 pic.twitter.com/lpSHuRjEZ4

— Emmanuel Alessio Velásquez (@EmmanuVeZe) 3. März 2026

„Wenn das Urteil selbst, das den Einsatz künstlicher Intelligenz verurteilt, diese Prozentzahl erreicht, wird die methodische Fragilität der Verwendung dieser Detektoren als argumentatives Mittel offensichtlich“, argumentierte er in einem weiteren Tweet. Innerhalb weniger Stunden nach Veröffentlichung des Urteils auf X begannen Anwälte, eigene Tests durchzuführen. Velasquez’ Beitrag wurde in juristischen Kreisen viral und erreichte Zehntausende von Aufrufen. Auch wir testeten das Urteil, und zunächst sah es nicht gut aus. Als GPTZero nur die ersten Worte des Gerichtstextes scannt, ergibt sich eine 100%ige KI-Resultate.

Als dasselbe Tool eine längere Version inklusive des Abschnitts mit den Fakten analysierte, änderte es seine Einschätzung komplett: 100 % menschlich. Das Tool ist einfach nicht zuverlässig genug, um vor Gericht oder in Situationen mit hoher Sicherheit verwendet zu werden.

Kolumbianische Anwälte reagierten schnell mit eigenen Experimenten. Der Strafverteidiger und Dozent Andres F. Arango G reichte 2019 eine Gerichtsakte ein, also Jahre vor den großen Sprachmodellen, die diese Tools zur Erkennung trainiert wurden, und es wurde 95 % KI-generiert angezeigt. „Diese Tools laden dann dazu ein, den Artikel durch ihre kostenpflichtigen Dienste zu ‘humanisieren’“, schrieb er auf X und wies auf einen offensichtlichen kommerziellen Anreiz im Geschäftsmodell der Erkennung hin. Nicolas Buelvas arbeitete 2020 an seiner Bachelorarbeit zum Prinzip des Vertrauens im Strafrecht. Das Ergebnis? 100 % KI. Dario Cabrera Montealegre, ein weiterer kolumbianischer Anwalt, kritisierte die Heuchelei, sich auf Technologie zu verlassen, um sie zu bekämpfen. „Das Gericht nutzt KI, um festzustellen, ob KI im Spiel war“, sagte er. „Aus meiner praktischen Sicht ist das widersprüchlich.“

La Corte usa IA para determinar si hubo IA…!? Algo contradictorio desde mi punto de vista práctico…Si se rechaza debe ser porque como humanos lo detectamos

— Darío Cabrera Montealegre (@dalcamont_daro) 2. März 2026

Außerhalb juristischer Kreise wiesen technikaffine Personen auf die Gefahren einer zu starken Abhängigkeit von KI-Flagging-Tools hin. „Bis heute gibt es kein öffentlich zugängliches Tool, das den Prozentsatz der KI-Nutzung beim Verfassen eines Textes genau bestimmen kann“, argumentierte Carlos Alejandro Torres Pinedo. „Was noch schlimmer ist: Niemand kann den Quellcode hinter diesen Erkennungsplattformen öffentlich verifizieren. Wie können sie genutzt werden, um das Recht auf Zugang zur Justiz zu delegitimieren?“

Die technischen Gründe für diese Misserfolge sind gut dokumentiert. KI-Detektoren messen statistische Muster: Satzlänge, Wortschatzvorhersehbarkeit und eine Qualität, die Forscher „Burstiness“ nennen, also die natürliche Rhythmusvariation, die Menschen in ihre Texte einbauen. Das Problem ist, dass formale juristische Prosa, akademisches Schreiben und Texte von Zweitsprachlern viele dieser statistischen Signaturen teilen. Studien zur KI-Erkennung Eine im Jahr 2023 in Patterns veröffentlichte Studie fand heraus, dass mehr als 61 % der TOEFL-Aufsätze von Nicht-Muttersprachlern fälschlicherweise als KI-generiert markiert wurden. Eine systematische Überprüfung von Weber-Wulff im selben Jahr kam zu dem Schluss, dass kein verfügbares Tool präzise oder zuverlässig ist. Turnitin gab im Juni 2023 zu, dass sein eigener Detektor bei einem KI-Gehalt unter 20 % höhere Fehlalarmraten aufwies. Sogar OpenAI musste sein eigenes KI-Erkennungs-Tool nach ständigen Ungenauigkeiten und Unfähigkeit, seine eigentliche Aufgabe zu erfüllen, abschalten. Universitäten beschäftigen sich seit Jahren damit. Vanderbilt deaktivierte 2023 den KI-Detektor von Turnitin, nachdem geschätzt wurde, dass er jährlich rund 3.000 Fehlalarme erzeugen würde. Die University of Arizona entfernte die KI-Erkennungsfunktion aus ihrer Plagiatssoftware, nachdem ein Student 20 % seiner Note durch einen Fehlalarm verlor. Im Jahr 2024 wurden an der UC Davis 17 Linguistik-Studierende markiert, 15 davon Nicht-Muttersprachler. Das Muster ist konstant. Die Tools bestrafen die Personen, die am formellsten, am repetitivsten oder am sorgfältigsten schreiben – genau das Profil, das Anwälte, Akademiker und Zweitsprachler ausmacht.

Der kulturelle Schaden ist fast schon absurd. In Schreib- und Journalistenkreisen haben Menschen begonnen, Em-Dashes in ihren Texten zu vermeiden, nicht wegen eines Stilleitfadens, sondern weil KI-Sprachmodelle sie häufig verwenden und Erkennungstools (und Menschen) das bemerken. Schreiber editieren ihre natürliche Interpunktion selbst heraus, aus Angst vor algorithmischer Verdächtigung. Über die schriftliche Welt hinaus haben Künstler die Wut von Moderatoren und Kollegen auf sich gezogen, weil ihre Kunstwerke wie KI aussehen.

Wir leben in einer Welt, in der echte Künstler bestraft werden, weil sie Opfer dieser Diebe namens KI-Künstler sind? #Savehumanartist #noAIart #NoAI #SavefutureArt pic.twitter.com/yTQAeyc8SR

— Benmoran artist (@benmoran_artist) 27. Dezember 2022

Die beiden Urteile Kolumbiens—AC739-2026, in dem die Zivilkammer im Februar einen Anwalt wegen der Zitierung von 10 nicht existierenden KI-generierten Präzedenzfällen verurteilte, und AP760-2026—stellen einige der ersten gerichtlichen Entscheidungen in der Region dar, die sich direkt mit dem Missbrauch generativer KI in juristischen Schriftsätzen befassen. Das kolumbianische Justizsystem hat im Dezember 2024 offizielle Richtlinien verabschiedet, die regeln, wie Richter und Gerichtspersonal KI nutzen dürfen. Die Regeln erlauben den freien Einsatz von KI für administrative und unterstützende Aufgaben, wie das Verfassen von E-Mails, das Organisieren von Terminen, das Übersetzen von Dokumenten oder das Zusammenfassen von Texten, während sensiblere Anwendungen, wie juristische Recherchen oder das Verfassen von Verfahrensdokumenten, nur mit sorgfältiger menschlicher Überprüfung gestattet sind. Die Richtlinien verbieten ausdrücklich, KI zur Bewertung von Beweisen, zur Auslegung des Gesetzes oder zur Entscheidung von Gerichtsverfahren zu verwenden, und betonen, dass menschliche Richter voll verantwortlich für alle Entscheidungen bleiben und offenlegen müssen, wenn KI-Tools bei der Vorbereitung gerichtlicher Materialien eingesetzt wurden. Diese Richtlinien, zusammengefasst im „PCSJA24-12243“-Abkommen, könnten genutzt werden, um eine solche Entscheidung anzuffechten.

Das Oberste Gericht hat bisher keine weiteren Stellungnahmen zu der Kritik an den verwendeten Erkennungstools veröffentlicht. Das Urteil enthielt ebenfalls keine Em-Dashes.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare
Handeln Sie jederzeit und überall mit Kryptowährungen
qrCode
Scannen, um die Gate App herunterzuladen
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)