После неудачных переговоров с Пентагоном Anthropic был внесён в список компаний с рисками для цепочки поставок, а OpenAI быстро объявила о заключении контракта с Министерством обороны, разместив свою модель ИИ в секретной среде. Эта сделка вызвала волну обсуждений в индустрии и редкое признание со стороны генерального директора OpenAI Сэма Альтмана: «Эта сделка действительно была поспешной, впечатление от неё не очень хорошее.»
(Anthropic столкнулся с прямым конфликтом с Пентагоном! Генеральный директор Amodei отказался от «масштабного внутреннего наблюдения» и «полностью автономных оружий»)
Переговоры Anthropic провалились, правительство Трампа приняло меры по блокировке
После того как переговоры с Пентагоном на прошлой неделе завершились неудачей, президент Дональд Трамп поручил федеральным агентствам прекратить использование технологий Anthropic через шесть месяцев переходного периода. Министр обороны Пит Хегсэт публично назвал Anthropic «риском для цепочки поставок».
Это решение стало ударом по индустрии ИИ. Anthropic всегда подчеркивал, что его технологии не предназначены для «полностью автономных оружий» или «масштабного внутреннего наблюдения», и установил для этого чёткие красные линии. Однако, похоже, такое положение дел не нашло понимания в Пентагоне.
Пока общественность еще осмысливала эту новость, OpenAI быстро объявила о договоренности с Минобороны о размещении своей модели в секретной среде. Этот совпадение по времени вызвало повышенный интерес в индустрии.
OpenAI: наши красные линии не изменились
На фоне критики со стороны общественности относительно возможных уступок под давлением национальной безопасности, компания опубликовала официальный блог, в котором перечислила три строго запрещённых области использования:
Масштабное внутреннее наблюдение
Автономные системы оружия
Высокорискованные автоматизированные решения (например, «системы социального кредитования»)
OpenAI подчеркнул, что в отличие от некоторых других компаний, «ослабляющих или удаляющих меры безопасности, полагаясь только на политику использования», их сотрудничество с Минобороны строится по принципу «многоуровневой, комплексной системы безопасности».
По официальным данным, OpenAI сохраняет полный контроль над системами безопасности, размещая модели через облачный API, обеспечивая участие только проверенных специалистов, а также заключая строгие договоры и руководствуясь существующим законодательством США.
В заявлении также говорится: «Мы не знаем, почему Anthropic не смогли договориться, но надеемся, что они и другие лаборатории пересмотрят свою позицию.»
Подозрения по поводу наблюдения: исполнительный приказ 12333 в центре внимания
Несмотря на то, что OpenAI заявила о чётких красных линиях, технологическое сообщество не разделяет этого мнения. Основатель Techdirt Майк Масник отметил, что в контракте указано, что сбор данных будет осуществляться в соответствии с исполнительным приказом 12333 и другими законами, что фактически может позволять внутреннее наблюдение.
Масник подчеркнул, что приказ 12333 давно критикуется как основание для NSA для перехвата коммуникаций за границей, включая данные граждан США. Он считает, что это означает, что контракт OpenAI «фактически допускает внутреннее наблюдение».
На это ответила руководитель отдела национальной безопасности OpenAI Катрин Маллиган в LinkedIn, которая опровергла эти опасения. Она отметила, что сосредоточение внимания на одном пункте контракта — ошибочно считать его единственной преградой для использования ИИ в масштабных наблюдениях или автономных оружиях. «Самая важная часть — архитектура развертывания», — подчеркнула она. Благодаря использованию только облачного API, OpenAI обеспечивает невозможность прямого внедрения моделей в оружейные системы, датчики или другое боевое оборудование.
Сэм Альтман признаёт поспешность: чтобы «охладить» индустриальный конфликт?
В соцсети X (Twitter) Сэм Альтман лично ответил на вопросы и признал, что сделка «действительно была поспешной», и отметил, что компания столкнулась с серьёзной критикой.
Степень реакции оказалась настолько сильной, что даже отразилась на рынке: в субботу у Anthropic с моделью Claude впервые в истории превзошли по скачиваниям ChatGPT в App Store.
(Anthropic после расторжения контракта с Пентагоном — скачивания Claude взлетели и заняли первое место)
Почему же всё-таки было решено подписать контракт?
Альтман заявил: «Мы действительно хотели снизить напряжённость, считаем, что эта сделка — разумный шаг». Он добавил, что если сотрудничество поможет снизить напряжённость между Минобороны и индустрией ИИ, OpenAI будет восприниматься как компания, которая под давлением и способствует стабильности; если же нет — критика продолжится, и решение будет признано поспешным и неосторожным.
Битва за границы ИИ и обороны: индустрия вступает в новую фазу
Этот инцидент выявил более глубокую проблему: по мере развития технологий ИИ, как технологические компании могут балансировать между национальной безопасностью и этическими красными линиями?
Anthropic выбрала придерживаться принципов и в итоге потеряла государственный контракт; OpenAI же выбрала быстрый подход и попыталась обеспечить безопасность через архитектуру и правовые механизмы. Обе стратегии отражают разные подходы к рискам.
В будущем сотрудничество между ИИ-компаниями и государством станет ещё более частым. Важен вопрос: смогут ли эти партнерства одновременно обеспечить безопасность страны и сохранить свободу граждан и этические стандарты технологий.
Эта статья: OpenAI выиграла контракт с Пентагоном! Сэм Альтман признал «поспешное решение», подчеркнув, что не связано с масштабным наблюдением и автономным оружием. Первое опубликование — в Chain News ABMedia.