OpenAI сотрудничество с американской армией вызывает волну бойкота! Загрузка приложения Claude обгоняет конкурентов, понимаем этические и политические противоречия за этим

CryptoCity

Сотрудничество OpenAI с американской армией вызвало бойкот. Антропик, отказавшись от военного мониторинга, получил массовую поддержку, что привело к тому, что Claude занял первое место в американском рейтинге загрузок, подчеркнув высокий интерес общественности к вопросам конфиденциальности и этики ИИ.

Контракт OpenAI с Министерством обороны США вызвал кризис репутации

С 28 февраля, после объявления о тайном сотрудничестве OpenAI с Министерством обороны США по развертыванию сетевых решений, и после того, как конкурент Anthropic был отмечен правительством США как поставщик с рисками в цепочке поставок, в обществе начались горячие дебаты о границах между технологическими компаниями и военными. Вскоре после этого приложение Claude заняло первое место в американском рейтинге загрузок.

В ответ на критику генеральный директор OpenAI Сам Альтман опубликовал заявление, в котором подчеркнул, что контракт явно запрещает использование ИИ для масштабного внутреннего наблюдения за гражданами США, и заявил, что компания сохранит контроль над механизмами безопасности. Альтман также признал, что объявление о сотрудничестве было сделано слишком поспешно, что вызвало негативные оценки, связанные с opportunism и поспешностью.

Общественные форумы в США начали бойкотировать, выражая сомнения в стандартах принятия решений OpenAI

Многие пользователи начали выражать разочарование текущим положением дел в OpenAI. На обсуждениях на Reddit некоторые считают, что компания предала свои первоначальные принципы, ориентированные на человека и безопасность.

Под постом с заявлением Альтмана также появились критические комментарии, в которых отмечается недостаточная прозрачность решений OpenAI и задаются вопросы, почему при согласии Министерства обороны на те же условия безопасности, предложенные OpenAI, Anthropic, предлагая те же условия, считается угрозой национальной безопасности.

Некоторые пользователи также указывают, что неясные формулировки в заявлении относительно коммерческого получения информации и ненамеренного мониторинга могут оставить юридические лазейки для слежки за гражданами других стран и для будущих военных применений.

Расследование CNBC: OpenAI заявляет, что не имеет операционного контроля

Журнал CNBC раскрыл внутренние материалы собраний OpenAI, в которых Альтман 3 марта на общем собрании сотрудников заявил, что OpenAI не обладает операционным контролем над использованием ИИ Министерством обороны США.

Изучая протоколы собраний, CNBC сообщает, что Альтман объяснил сотрудникам, что независимо от их мнения о целесообразности ударов по Ирану или вторжений в Венесуэлу, у них нет права высказывать свое мнение по этим вопросам.

Источник, знакомый с ситуацией, сообщил, что Альтман подчеркнул, что Пентагон уважает техническую экспертизу OpenAI и разрешает компании создавать соответствующие механизмы безопасности, однако военные ясно дали понять, что окончательное решение о действиях остается за министром обороны Питом Хегсетом.

Источник изображения: commons.wikimedia, Gage Skidmore, министр обороны США Пит Хегсетх

Этическая борьба за безопасность и технологические границы

Инцидент с участием армии США и Anthropic усугубил противоречия между национальной безопасностью, этикой технологий и свободой конфиденциальности.

Более 200 сотрудников Google и OpenAI подписали открытое письмо в поддержку решения Anthropic сохранить меры безопасности. Anthropic твердо заявляет, что никакие угрозы или наказания не изменят их принципов предотвращения масштабного слежки и автоматизированного вооружения.

Бывший сотрудник ФБР и известный информатор Эдвард Сноуден указал, что система XKeyscore Агентства национальной безопасности США способна полностью отслеживать интернет-активность и физическое местоположение человека, что вызывает опасения, что вмешательство ИИ может расширить масштабы слежки.

Кроме того, недавние исследования Лондонского королевского колледжа показывают, что в моделируемых геополитических кризисах существует до 95% вероятность, что ведущие ИИ-модели, такие как OpenAI и Anthropic, выберут использование ядерного оружия.

Если правительство будет произвольно использовать ярлыки рисков цепочки поставок для давления на технологические компании, это создаст опасный прецедент и серьезно помешает инновациям и этическому регулированию в американской индустрии ИИ.

  • **Подробнее:**Национальная безопасность против этики: Anthropic отказывается снимать меры безопасности Claude и вступает в конфликт с Министерством обороны США

Что означает победа Claude App в рейтинге загрузок?

Настоящая борьба за этику ИИ и политическую власть продолжается. Anthropic планирует обратиться в суд, чтобы оспорить санкции правительства и защитить свои коммерческие интересы и юридические границы. В то же время, OpenAI, быстро получивший военные контракты, сталкивается с серьезным кризисом репутации и доверием.

Общественное мнение в США также влияет на популярность продуктов обеих компаний.

Данные Similarweb показывают, что по состоянию на 1 марта, в американском App Store Claude App поднялся на 3 позиции в рейтинге бесплатных приложений для iPhone, заняв первое место по загрузкам, а ChatGPT опустился на одну позицию и занимает второе место.

Это прямо отражает то, что после возникновения споров о национальной безопасности американское общество уделяет особое внимание защите конфиденциальности и выражает желание избегать чрезмерного контроля со стороны правительства.

Дополнительное чтение:
V-образный пророк снова предупреждает о World Coin: World ID, созданный Альтманом, содержит данные 13 миллионов пользователей и может угрожать свободе интернета
Основатель Telegram раскрывает, что не использует телефон: «Мы тратим время, чтобы остановить разрушение свободной сети»

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев