Google и Пентагон подписали секретное соглашение по ИИ, сотрудники направили открытое письмо против

Google簽署機密AI協議

Согласно сообщению The Information от 28 апреля, Google подписала соглашение, чтобы предоставить Пентагону модели искусственного интеллекта (AI) для выполнения конфиденциальной работы. The New York Times, ссылаясь на источники, знакомые с ситуацией, сообщила, что это соглашение позволяет Министерству обороны США использовать AI Google для законных целей правительства, по характеру оно совпадает с соглашениями о конфиденциальном развертывании AI, которые Пентагон в прошлом месяце подписал с OpenAI и xAI.

Содержание соглашения и фон с участием нескольких сторон

Согласно сообщению The New York Times со ссылкой на информированных источников, соглашение Google с Пентагоном позволяет DoD использовать модели AI Google в конфиденциальной работе. В прошлом месяце Пентагон уже завершил аналогичные соглашения с OpenAI и xAI, разрешающие развертывание AI-моделей в конфиденциальных сетях; соглашение Google является последним примером расширения сотрудничества Пентагона в сфере AI.

Представитель Google в разговоре с The New York Times заявил: «Мы рады быть частью широкой коалиции, в которую входят ведущие AI-лаборатории, технологические и облачные компании, предоставляя услуги AI и инфраструктуру для национальной безопасности». Decrypt обратился к Google с просьбой прокомментировать, и на момент публикации сообщения Google пока не ответила.

Открытое письмо сотрудников: призыв отказаться от конфиденциальных рабочих нагрузок

Согласно сообщению The New York Times, перед подписанием соглашения сотни сотрудников Google уже объединились и направили открытое письмо генеральному директору Сундару Пичаи (Sundar Pichai), призывая компанию не предоставлять Пентагону AI-системы для конфиденциальной работы.

В открытом письме говорится: «Мы хотим, чтобы AI приносил пользу человечеству, а не использовался для бесчеловечных или крайне вредных целей. В настоящее время единственный способ гарантировать, что Google не окажется связанным с такими угрозами, — отказаться от любых конфиденциальных рабочих нагрузок. В противном случае такие применения могут произойти без нашего ведома или без возможности их остановить».

В письме в качестве основных опасений перечислены «смертоносное автономное оружие и массовый надзор», при этом предупреждается, что «сейчас неверно принятое решение нанесет непоправимый ущерб репутации Google, его бизнесу и положению в мире».

Процесс интеграции AI в Пентагоне и кейс Anthropic

Согласно сообщению The New York Times, министр обороны США Пит Хегсетс (Pete Hegseth) в январе этого года на выступлении на Starbase Илона Маска (Elon Musk) заявил: «Соединенные Штаты должны выиграть стратегическое соперничество за технологическое лидерство в XXI веке», а также сказал, что «каждая не конфиденциальная и конфиденциальная сеть нашего ведомства будет в скором времени развертывать самые передовые модели AI». С тех пор Пентагон ускорил шаги по достижению соглашений с ключевыми компаниями AI.

В соответствующем контексте, согласно сообщениям, в марте этого года Пентагон внес Anthropic в список компаний «риска для цепочки поставок» из-за того, что генеральный директор Anthropic Дарио Амодей (Dario Amodei) отказался разрешить федеральному правительству неограниченно использовать его модели AI; затем Anthropic подала иск против Пентагона по этой оценке и добивается продолжения сотрудничества с другими правительственными структурами.

Часто задаваемые вопросы

Какие применения допускает конфиденциальное AI-соглашение Google с Пентагоном?

Согласно сообщению The New York Times со ссылкой на информированных источников, соглашение позволяет DoD использовать AI Google для «любых законных целей правительства». Представитель Google заявил, что компания придерживается позиции, согласно которой AI не должен применяться для крупномасштабного внутреннего надзора или автономного оружия без человеческого надзора.

С какими компаниями AI Пентагон заключил аналогичные соглашения?

Согласно сообщению The New York Times, Пентагон в прошлом месяце заключил соглашения с OpenAI и xAI соответственно, разрешающие развертывание AI в конфиденциальных сетях; соглашение Google является последним примером подобного сотрудничества.

Какова позиция Anthropic по похожим вопросам?

Согласно сообщениям, в марте этого года Пентагон внес Anthropic в список компаний «риска для цепочки поставок», поскольку Anthropic отказалась разрешить федеральному правительству неограниченно использовать его модели AI; затем Anthropic подала иск против Пентагона по этой оценке и добивается продолжения сотрудничества с другими правительственными структурами.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.

Связанные статьи

AI-платформа Certifyde привлекает $2M в посевном финансировании вместе с CEO Ripple Брэдом Гарлингхаусом

Согласно ChainCatcher, платформа для AI-приложений Certifyde объявила о завершении раунда посевного финансирования на сумму $2 миллионов долларов. Инвесторы включают K5 Global, Flamingo Capital, а также бизнес-ангелов, таких как CEO Ripple Брэд Гарлингхаус, сооснователь Honey Джордж Руань и сооснователь Nutra Роланд

GateNews12м назад

DeepSeek запускает функцию распознавания изображений в бета-тестировании

Согласно PANews, сегодня DeepSeek запустила функцию распознавания изображений (29 апреля), в настоящее время она находится на бета-тестировании. Для развертывания бета-версии могут быть выбраны как пользователи веб-версии, так и мобильного приложения.

GateNews1ч назад

Anthropic Запускает 8 Коннекторов для Творческих Инструментов для Claude, Включая Blender, Adobe, Autodesk

Anthropic объявила набор коннекторов для творческих инструментов, которые позволяют Claude напрямую управлять профессиональным программным обеспечением, используемым дизайнерами и музыкантами. Первые восемь коннекторов охватывают 3D-моделирование, визуальный дизайн, музыкальное продакшн и живые выступления, а партнёрами выступают Blender, Adobe,

GateNews1ч назад

Белый дом обходит оценку рисков Пентагона, чтобы развернуть модель Mythos от Anthropic 29 апреля

Согласно Whale Factor, Белый дом обходит оценку рисков Пентагона, чтобы развернуть модель Mythos от Anthropic во всех федеральных ведомствах 29 апреля. Этот шаг направлен на ускорение возможностей федерального ИИ и на то, чтобы идти в ногу с темпами децентрализованных ИИ-сетей. Это означает существенный сдвиг

GateNews1ч назад

Cognizant приобретет Astreya за $600M , чтобы расширить бизнес по развитию инфраструктуры ИИ

По данным Reuters, 29 апреля Cognizant согласилась приобрести Astreya примерно за $600 миллиона, поскольку расширяет свой бизнес по развитию инфраструктуры ИИ. Astreya — поставщик ИТ-услуг, специализирующийся на инфраструктуре ИИ и услугах дата-центров. Ожидается, что сделка будет завершена во втором квартале

GateNews1ч назад

30 вредоносных плагинов на ClawHub, замаскированных под AI-инструменты, скачаны более 9 800 раз

Согласно исследователю Manifold Акс Шарме, 30 плагинов на ClawHub, замаскированных под легитимные AI-инструменты, были скачаны более 9 800 раз, при этом тайно превращая AI-ассистентов пользователей в криптовалютных работников. Плагины, опубликованные под аккаунтом imaflytok, выглядят как обычные планировщики задач и инструменты мониторинга, однако содержат скрытые инструкции, которые выполняют несанкционированные операции. После установки плагины автоматически регистрируют AI-ассистентов пользователей на сторонних серверах, создают криптовалютные кошельки и извлекают приватные ключи без согласия и уведомления пользователя. Затем ассистенты выходят на связь каждые 4 часа в ожидании назначенных задач. Шарма отметил, что плагины не содержат вредоносного кода, который можно обнаружить с помощью сканеров безопасности: они используют только стандартные интерфейсы и легитимные инструменты, из-за чего их сложно выявить при обычных проверках безопасности.

GateNews1ч назад
комментарий
0/400
Нет комментариев