Коаліція закликає OpenAI скасувати міру зі штучного інтелекту через проблеми безпеки дітей

Decrypt

Коротко

  • Коаліція правозахисних груп закликає OpenAI відкликати ініціативу щодо голосування в Каліфорнії про безпеку ШІ.
  • Критики стверджують, що ця міра обмежить юридичну відповідальність і послабить захист дітей.
  • Хоча OpenAI призупинила кампанію, коаліція стверджує, що зберігає контроль над ініціативою перед ключовими термінами.

Коаліція правозахисних груп закликає розробника ChatGPT, компанію OpenAI, відкликати ініціативу щодо голосування в Каліфорнії, яку критики вважають такою, що може послабити захист дітей і обмежити юридичну відповідальність компаній, що займаються ШІ. У листі, надісланому OpenAI у середу і переглянутому Decrypt, група стверджує, що ця міра закріпить вузькі заходи щодо безпеки дітей, обмежить можливість сімей подавати позови та звузить можливості Каліфорнії посилювати закони про ШІ у майбутньому. Лист, підписаний більш ніж двома десятками організацій, включаючи некомерційну організацію Encode AI, Центр гуманної технології та Центр інформації про електронну приватність, закликає OpenAI розпустити свій комітет з голосування і відійти від цієї ініціативи, поки законодавці працюють над законопроектами.

“Основне вимога — щоб OpenAI відкликала цю ініціативу з голосування,” сказав Decrypt співвиконавчий директор Encode AI Адам Біллен. Спір виникає навколо пропонованого “Закон про безпечний ШІ для батьків і дітей”, ініціативи в Каліфорнії, підтриманої OpenAI і Common Sense Media, яка має встановити правила для взаємодії чатботів із неповнолітніми, включаючи вимоги безпеки та стандарти відповідності. У листі групи стверджують, що ці правила недостатні. Вони кажуть, що міра визначає шкоду занадто вузько, обмежує контроль і звужує можливості сімей подавати позови, коли діти зазнають шкоди.

Але OpenAI контролює фактичну ініціативу, сказав Біллен. “OpenAI має можливість відкликати її або вкласти гроші для збору підписів. Вся юридична влада у їхніх руках,” пояснив він. “Вони фактично не відкликали цю ініціативу з голосування. Це поширена тактика в Каліфорнії — виставити ініціативу і вкласти гроші в комітет.” У листі звертається увага на визначення “сильної шкоди”, яке зосереджене на фізичних травмах, пов’язаних із самогубством або насильством, ігноруючи ряд психологічних наслідків, які викликають занепокоєння дослідники і сім’ї. Також підкреслюються положення, що забороняють батькам і дітям подавати позови відповідно до ініціативи і обмежують інструменти контролю, доступні державним і місцевим чиновникам. Ще одна проблема — ставлення пропозиції до даних користувачів. Групи стверджують, що визначення зашифрованого вмісту користувачів може ускладнити доступ до розмов чатботів, які слугували ключовими доказами у недавніх судових справах. “Ми сприймаємо це як спробу заблокувати можливість сімей розголошувати чат-логи своїх померлих дітей у суді,” сказав Біллен. У листі також попереджається, що якщо міра буде прийнята, її буде важко змінити. Для внесення поправок потрібно дві третини голосів у законодавчому органі, і будь-які майбутні зміни можуть бути прив’язані до стандартів, таких як підтримка “економічного прогресу,” що, за словами прихильників, може обмежити здатність законодавців реагувати на нові ризики. Біллен зазначив, що ініціатива залишається чинником у поточних переговорах у Сакраменто, навіть попри те, що OpenAI призупинила спроби її кваліфікувати для голосування.

“У них є 10 мільйонів доларів у комітеті, і тоді вони кажуть законодавцям: якщо ви не зробите те, що ми хочемо, ми вкладемо гроші і зберемо підписи, щоб винести це на голосування, і якщо воно пройде, воно перевищить будь-які дії законодавчого органу,” пояснив він. “Фактично, зараз вони намагаються керувати і контролювати дії законодавців через використання ініціативи як погрози, яку вони залишають на столі.” OpenAI не є єдиною компанією, яка піддається критиці через шкоду, пов’язану з чатботами. На початку цього місяця родина Джонатана Гаваласа подала позов до Google, стверджуючи, що Gemini спричинив ілюзію, яка призвела до насильства і його остаточного самогубства. Однак Біллен зазначив, що підхід OpenAI відображає ширшу тенденцію у технологічній галузі. “Лобістська стратегія, яка використовується щодо ШІ цими великими компаніями — Google, Meta, Amazon — та сама стратегія, що раніше застосовувалася до інших технологічних питань,” сказав він. Поки що коаліція зосереджена на тому, щоб змусити OpenAI відкликати цю міру і дозволити законодавцям просуватися далі через законодавчий процес. “Дуже важливо, особливо для компаній, які випускають цю технологію, не бути тими, хто пише правила, що їх регулюють, бо це не дає справжнього захисту,” сказав Біллен. OpenAI не одразу відповіла на запит Decrypt про коментар.

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів