OpenAI и Pentagon AI вызывают споры: сотрудники публично выступают, безопасность и риски контроля становятся в центре внимания

GateNews

3 марта было сообщено, что новость о соглашении OpenAI о сотрудничестве в области ИИ с Министерством обороны США продолжает распространяться, и ряд нынешних и бывших сотрудников недавно публично обсуждали границы безопасности, возможные применения и различия между позицией соглашения и позицией Anthropic по социальной платформе X, что привлекло широкое внимание в области технологий и политики.

Генеральный директор OpenAI Сэм Алтман ранее подтвердил, что компания достигла соглашения о сотрудничестве с Министерством обороны США, позволяющему использовать модели искусственного интеллекта OpenAI при определённых условиях. Сотрудничество быстро вызвало споры, поскольку другая компания, занимающаяся ИИ, Anthropic, ранее отказывалась принимать аналогичные условия из-за опасений, что её модель Claude может использоваться для крупномасштабного внутреннего наблюдения или автономных летальных оружейных систем.

В ответ исследователь OpenAI Боаз Барак заявил, что неточно описывать контракт OpenAI как «ослабляющие красные линии безопасности». Он отметил, что исходя из имеющейся информации, ограничения на использование моделей ИИ в соглашении OpenAI могут быть строже, чем ранее заключённые контракты Anthropic, особенно в отношении предотвращения масштабного внутреннего наблюдения и автономного оружия.

Тем временем Майлз Брандейдж, бывший руководитель отдела политических исследований в OpenAI, высказывает иную точку зрения. Он считает, что на фоне внешних юристов и публичных заявлений Пентагона некоторые сотрудники могут заподозрить, что компания пошла на уступки в переговорах и попытаться предложить такие уступки, как техническое сотрудничество. Однако позже он добавил, что внутренняя структура OpenAI сложна, и команда, участвующая в переговорах, действительно может усерьёзно работать над достижением разумного результата.

Другой техник OpenAI, Клайв Чан, раскрыл, что в контракте компании есть запретная оговорка, запрещающая использование ИИ для массового наблюдения или автономного летального оружия, и заявил, что он настаивает на том, чтобы компания раскрывала больше деталей соглашения в ответ на общественные опасения.

Научный сотрудник Мухаммад Бавариан заявил, что несправедливо с точки зрения Пентагона рассматривать Anthropic как риск для цепочки поставок. Он считает, что если обе стороны сохранят спокойствие в переговорах, всё ещё появится возможность преодолеть разрыв в позициях.

Кроме того, исследователь Ноам Браун отметил, что первоначально анонсированная формулировка соглашения вызвала некоторые вопросы, например, возможность использования ИИ в новых юридических формах слежки. Однако после обновления официального блога OpenAI эти заявления были скорректированы.

Ноам Браун также подчеркнул, что использование ИИ в агентствах национальной безопасности должно подлежать демократическому рассмотрению процессов и не должно решаться исключительно технологическими компаниями или разведывательным агентствами. В настоящее время планы по внедрению соответствующих систем ИИ в разведывательные службы, такие как АНБ, также приостановлены в ожидании дальнейших обсуждений политики.

Этот инцидент отражает сложные споры, с которыми сталкивается применение технологий ИИ в области национальной безопасности. По мере роста возможностей ИИ ожидается обострение обсуждений военного применения ИИ, рисков наблюдения и этического управления ИИ.

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев