ศาลโคลอมเบียปฏิเสธอุทธรณ์เกี่ยวกับการเขียนด้วย AI แล้วถูกตรวจจับโดยเครื่องตรวจจับ AI ของตนเอง

Decrypt

สรุปโดยย่อ

  • ศาลสูงของโคลอมเบียปฏิเสธอุทธรณ์คาสเซชัน หลังจากเครื่องมือตรวจจับ AI ระบุว่าเอกสารเป็นผลงานที่สร้างด้วยเครื่องจักร
  • ทนายความนำคำพิพากษาไปตรวจด้วยเครื่องมือเดียวกัน และพบว่าก็ปรากฏว่าเป็นผลงาน AI เช่นกัน
  • นักวิชาการและการศึกษาชี้ให้เห็นว่า ซอฟต์แวร์ตรวจจับ AI ให้ผลลัพธ์ที่ไม่น่าเชื่อถือและไม่สอดคล้องกัน

ศาลสูงของโคลอมเบียปฏิเสธอุทธรณ์คาสเซชัน โดยอ้างว่าเอกสารนั้นถูกสร้างโดย AI แต่เครื่องมือเดียวกันที่ใช้ในการวิเคราะห์ก็ระบุว่า คำพิพากษาของศาลก็ได้รับความช่วยเหลือจาก AI เช่นกัน เป็นการแสดงความแตกต่างกันของมาตรฐานหรือเครื่องมือที่ผิดพลาดกันแน่? “เนื่องจากมีความสงสัยอย่างมีเหตุผลว่าเอกสารที่ทนายความยื่นเสนอไม่ได้ร่างขึ้นโดยมืออาชีพทางกฎหมายเอง ศาลจึงนำข้อความไปตรวจด้วย Winston AI” ศาลอธิบาย “ผลวิเคราะห์ชี้ให้เห็นว่าเอกสารมีเนื้อหาที่เป็นมนุษย์เพียง 7% เท่านั้น ซึ่งแสดงให้เห็นถึงอิทธิพลของการเขียนอัตโนมัติอย่างชัดเจน และสรุปได้ว่าเอกสารนี้ถูกผลิตขึ้นโดยปัญญาประดิษฐ์”

หลังจากนำผลวิเคราะห์ไปตรวจด้วยเครื่องมืออื่น ๆ ที่ให้ผลลัพธ์คล้ายกัน ศาลตัดสินว่า “เนื่องจากเอกสารนี้ไม่สามารถถือเป็นคำร้องที่ถูกยื่นอย่างถูกต้องตามกฎหมาย จึงต้องปฏิเสธการรับคำร้อง”

แต่เมื่อคำพิพากษาของศาลถูกตรวจสอบโดยผู้เชี่ยวชาญด้านกฎหมาย ก็พบผลลัพธ์เช่นเดียวกัน “ผมได้นำข้อความจากคำพิพากษา Auto AP760/2026 ของศาลสูง ไปตรวจด้วย Winston AI เช่นเดียวกับที่ศาลใช้” ทนายความ Emmanuel Alessio Velasquez เขียนบน X เมื่อวันอังคาร “ผลลัพธ์: เอกสารประกอบด้วยเนื้อหา AI ถึง 93%”

ผมได้นำข้อความจากคำสั่ง Auto AP760/2026 ของ @CorteSupremaJ ไปตรวจด้วยซอฟต์แวร์ Winston IA ที่อ้างอิงในคำสั่ง ผลลัพธ์คือเอกสารมี “เนื้อหาที่สร้างด้วย AI” ถึง 93% https://t.co/xTm2jI4d70 pic.twitter.com/lpSHuRjEZ4

— Emmanuel Alessio Velásquez (@EmmanuVeZe) 3 มีนาคม 2026

“ถ้าคำพิพากษาที่ลงโทษการใช้ปัญญาประดิษฐ์ให้คะแนนเป็นเช่นนั้น ความเปราะบางของวิธีการใช้เครื่องมือตรวจจับเหล่านี้เป็นข้อโต้แย้งก็ชัดเจนขึ้นเอง” เขาเขียนในทวิตต่อไป ภายในไม่กี่ชั่วโมงหลังจากศาลโพสต์ข้อความเกี่ยวกับการตัดสินใจบน X ทนายความก็เริ่มทดสอบด้วยตัวเอง ผลโพสต์ของ Velasquez ก็กลายเป็นไวรัลในวงการกฎหมาย มีผู้ชมหลายหมื่นคน เราได้ทดสอบคำพิพากษาของศาลเช่นกัน และในตอนแรกดูเหมือนจะไม่ดี เมื่อ GPTZero สแกนคำเปิดของข้อความศาล ก็รายงานผลเป็น 100% AI

เมื่อเครื่องมือเดียวกันวิเคราะห์ข้อความที่ยาวขึ้น รวมถึงส่วนพื้นหลังข้อเท็จจริง ก็เปลี่ยนผลเป็น 100% มนุษย์ เครื่องมือนี้ไม่สามารถเชื่อถือได้เพียงพอที่จะใช้ในศาลหรือในสถานการณ์ที่ต้องการความแน่นอนสูง

ทนายความชาวโคลอมเบียตอบสนองอย่างรวดเร็วด้วยการทดลองของตนเอง ทนายความด้านคดีอาญาและอาจารย์ Andres F. Arango G ยื่นคำร้องต่อศาลจากปี 2019 ซึ่งเป็นปีที่โมเดลภาษาใหญ่ยังไม่ถูกพัฒนาขึ้น และผลก็ระบุว่าเป็น 95% AI “เครื่องมือเหล่านี้ชวนให้คุณ ‘มนุษย์’ เอกสารผ่านบริการที่เสียค่าใช้จ่าย” เขาเขียนบน X พร้อมสังเกตว่ามีแรงจูงใจทางการค้าแฝงอยู่ในโมเดลการตรวจจับนี้ Nicolas Buelvas ทำวิทยานิพนธ์ปริญญาตรีปี 2020 เกี่ยวกับหลักการความไว้วางใจในกฎหมายอาญา ผลลัพธ์คือ 100% AI Dario Cabrera Montealegre อีกทนายความชาวโคลอมเบีย ชี้ให้เห็นความขัดแย้งของการใช้เทคโนโลยีเพื่อพยายามต่อสู้กับเทคโนโลยี “ศาลใช้ AI เพื่อกำหนดว่ามี AI หรือไม่” เขากล่าว “เป็นสิ่งที่ขัดแย้งกันจากมุมมองเชิงปฏิบัติของผม”

La Corte usa IA para determinar si hubo IA…!? Algo contradictorio desde mi punto de vista práctico…Si se rechaza debe ser porque como humanos lo detectamos

— Darío Cabrera Montealegre (@dalcamont_daro) 2 มีนาคม 2026

นอกวงการกฎหมาย คนที่มีความรู้ด้านเทคโนโลยีก็ชี้ให้เห็นอันตรายของการพึ่งพาเครื่องมือตรวจจับ AI มากเกินไป “จนถึงปัจจุบัน ยังไม่มีเครื่องมือสาธารณะที่สามารถกำหนดเปอร์เซ็นต์การใช้ AI ในการร่างข้อความได้อย่างแม่นยำ” คาร์ลอส อเลฆันโดร Torres Pinedo โต้แย้ง “ยิ่งไปกว่านั้น ไม่มีใครสามารถตรวจสอบซอร์สโค้ดของแพลตฟอร์มเหล่านี้ได้อย่างสาธารณะ แล้วจะใช้มันเพื่อทำให้สิทธิ์ในการเข้าถึงความยุติธรรมของใครบางคนเป็นโมฆะได้อย่างไร?”

เหตุผลทางเทคนิคของความล้มเหลวเหล่านี้ได้รับการบันทึกไว้อย่างดี ซอฟต์แวร์ตรวจจับ AI วัดแพทเทิร์นทางสถิติ เช่น ความยาวประโยค คำศัพท์ที่คาดเดาได้ง่าย และคุณสมบัติที่นักวิจัยเรียกว่า “burstiness” ซึ่งหมายถึงความแปรปรวนของจังหวะธรรมชาติที่มนุษย์สร้างขึ้นในงานเขียน ปัญหาคือ เอกสารทางกฎหมายอย่างเป็นทางการ งานเขียนเชิงวิชาการ และข้อความที่เขียนโดยคนที่ใช้ภาษาที่สอง ล้วนมีลายเซ็นทางสถิติเดียวกันเหล่านี้ การศึกษาทางด้านการตรวจจับ AI การศึกษาปี 2023 ที่ตีพิมพ์ใน Patterns พบว่า กว่า 61% ของเรียงความ TOEFL ที่เขียนโดยผู้ที่ไม่ใช่เจ้าของภาษาอังกฤษ ถูกระบุผิดว่าเป็น AI การทบทวนอย่างเป็นระบบโดย Weber-Wulff ในปีเดียวกัน สรุปว่าไม่มีเครื่องมือใดที่แม่นยำหรือเชื่อถือได้เลย Turnitin ยอมรับในเดือนมิถุนายน 2023 ว่าเครื่องตรวจจับของตนเองมีอัตราการบวกเท็จสูงขึ้นเมื่อระดับเนื้อหา AI ในเอกสารต่ำกว่า 20% แม้แต่ OpenAI ก็ต้องถอดเครื่องมือตรวจจับ AI ของตนเองออก หลังจากพบความผิดพลาดบ่อยครั้งและไม่สามารถทำงานได้ตามเป้าหมาย มหาวิทยาลัยต่าง ๆ ก็เผชิญกับปัญหานี้มาหลายปี Vanderbilt ปิดการใช้งานเครื่องตรวจจับ AI ของ Turnitin ในปี 2023 หลังจากประมาณว่ามันจะสร้างผลบวกเท็จประมาณ 3,000 ครั้งต่อปี มหาวิทยาลัยอริโซนา ยกเลิกฟีเจอร์การตรวจจับ AI จากซอฟต์แวร์ป้องกันการลอกเลียนแบบ หลังจากนักเรียนคนหนึ่งเสียคะแนน 20% จากผลบวกเท็จ ปี 2024 มหาวิทยาลัย UC Davis พบว่ามีนักเรียนภาษาศาสตร์ 17 คนถูกระบุว่าเป็น AI โดย 15 ในจำนวนนี้เป็นผู้ใช้ภาษาที่สอง รูปแบบนี้เป็นแนวเดียวกัน เครื่องมือเหล่านี้ลงโทษคนที่เขียนอย่างเป็นทางการที่สุด ซ้ำซากที่สุด หรือระมัดระวังที่สุด ซึ่งเป็นโปรไฟล์เดียวกับนักกฎหมาย นักวิชาการ และผู้ใช้ภาษาที่สอง

ผลกระทบทางวัฒนธรรมก็กลายเป็นเรื่องตลกขบขันไปแล้ว ในวงการเขียนและข่าวสาร ผู้คนเริ่มหลีกเลี่ยงการใช้ em dash ในงานเขียนของตนเอง ไม่ใช่เพราะแนวทางการเขียน แต่เพราะโมเดลภาษา AI ใช้บ่อยครั้งและเครื่องมือตรวจจับ (รวมถึงคน) ก็สังเกตเห็น นักเขียนเริ่มแก้ไขเครื่องหมายวรรคตอนธรรมชาติของตนเองเพื่อหลีกเลี่ยงความสงสัยจากอัลกอริทึม นอกเหนือจากโลกการเขียน ศิลปินก็ได้รับผลกระทบจากการถูกกลั่นแกล้งโดยผู้ดูแลและเพื่อนร่วมงาน สำหรับผลงานศิลปะที่ดูเหมือน AI

เราอยู่ในโลกที่ศิลปินตัวจริงถูกลงโทษเพราะเป็นเหยื่อของเหล่านักล้วงที่เรียกตัวเองว่า AI ศิลปิน? #Savehumanartist #noAIart #NoAI #SavefutureArt pic.twitter.com/yTQAeyc8SR

— Benmoran artist (@benmoran_artist) 27 ธันวาคม 2022

คำตัดสินของโคลอมเบียสองฉบับ—AC739-2026 ซึ่งศาลพลเรือนปรับทนายความที่อ้างอิงคดี AI ที่ไม่มีอยู่จริง 10 คดีในเดือนกุมภาพันธ์ และ AP760-2026—กำลังกลายเป็นหนึ่งในคำตัดสินทางกฎหมายแรก ๆ ของภูมิภาคที่เผชิญหน้ากับการใช้งาน AI สร้างเนื้อหาในเอกสารทางกฎหมายโดยตรง กระทรวงยุติธรรมของโคลอมเบียได้ออกแนวทางอย่างเป็นทางการในเดือนธันวาคม 2024 เพื่อควบคุมการใช้ AI ของผู้พิพากษาและเจ้าหน้าที่ศาล กฎระเบียบอนุญาตให้ใช้ AI ได้อย่างอิสระในงานด้านบริหารและสนับสนุน เช่น การร่างอีเมล การจัดระเบียบกำหนดการ การแปลเอกสาร หรือการสรุปข้อความ ในขณะที่การใช้งานที่ละเอียดอ่อน เช่น การวิจัยทางกฎหมายหรือการร่างเอกสารกระบวนการ ต้องได้รับการตรวจสอบอย่างรอบคอบโดยมนุษย์ แนวทางเหล่านี้ห้ามใช้ AI ในการประเมินหลักฐาน การตีความกฎหมาย หรือการตัดสินคดีทางศาลอย่างชัดเจน โดยเน้นให้ผู้พิพากษามีความรับผิดชอบเต็มที่ต่อคำตัดสิน และต้องเปิดเผยเมื่อมีการใช้เครื่องมือ AI ในการเตรียมเอกสารทางศาล แนวทางเหล่านี้ ซึ่งถูกรวบรวมในข้อตกลง “PCSJA24-12243” อาจถูกใช้เป็นหลักฐานในการโต้แย้งคำตัดสินดังกล่าว

ศาลสูงยังไม่ได้ออกแถลงการณ์เพิ่มเติมใด ๆ ตอบโต้ความกังวลเกี่ยวกับเครื่องมือการตรวจจับที่เลือกใช้ คำตัดสินก็ไม่มีการใช้ em dash เช่นกัน

ดูต้นฉบับ
news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น