Anthropic, OpenAI смягчают язык безопасности по мере ускорения гонки ИИ

Decrypt
XAI2,42%

Вкратце

  • TIME сообщает, что Anthropic отказалась от обязательства приостановить обучение без гарантированных мер безопасности.
  • OpenAI также убрала слово «безопасно» из своей миссии после преобразования в коммерческую организацию.
  • Эксперты считают, что изменение отражает политические, экономические и интеллектуальные перемены.

Anthropic сняла центральное обязательство по безопасности из своей Политики ответственного масштабирования, сообщает TIME. Эти изменения ослабляют обязательство, которое ранее запрещало разработчику Claude AI обучать продвинутые системы ИИ без гарантированных мер безопасности. Этот шаг меняет позицию компании в гонке за лидерство в области ИИ против конкурентов OpenAI, Google и xAI. Anthropic давно позиционирует себя как один из самых ориентированных на безопасность лабораторий в индустрии, но по новой политике Anthropic больше не обещает приостанавливать обучение, если меры по снижению рисков не полностью реализованы. «Мы посчитали, что для нас не будет полезным останавливать обучение моделей ИИ», — заявил TIME главный научный сотрудник Anthropic, Джаред Каплан. «С учетом быстрого развития ИИ, мы не считали целесообразным давать односторонние обязательства… если конкуренты идут впереди». 

Изменение произошло на фоне публичного спора Anthropic с министром обороны США Питом Хегсетом по поводу отказа предоставить Пентагону полный доступ к Claude, что делает Anthropic единственной крупной лабораторией ИИ среди Google, xAI, Meta и OpenAI, которая заняла такую позицию. Эдвард Гайст, старший исследователь политики в RAND Corporation, отметил, что ранее «безопасность ИИ» возникла из определенного интеллектуального сообщества, существовавшего до появления современных больших языковых моделей. «Несколько лет назад существовала область — безопасность ИИ», — рассказал Гайст Decrypt. «Безопасность ИИ ассоциировалась с определенным набором взглядов, исходящих от сообщества людей, которые заботились о мощных ИИ еще до появления этих LLM». Гайст отметил, что ранние сторонники безопасности ИИ работали с совершенно иным представлением о том, каким должен быть продвинутый искусственный интеллект.

«Они в итоге сформулировали проблему так, что в некоторых аспектах это представляло собой концепцию, качественно отличную от нынешних LLM, — для лучшего или худшего», — сказал Гайст. Он также отметил, что изменение терминологии посылает сигнал инвесторам и политикам. «Часть этого — сигнал различным аудиториям о том, что многие из этих компаний хотят создать впечатление, что они не сдерживаются в экономической конкуренции из-за опасений по поводу ‘безопасности ИИ’», — добавил он, отметив, что сама терминология меняется, чтобы соответствовать времени. Anthropic не единственная, кто пересматривает свою политику безопасности. Что такое безопасность ИИ? Недавний отчет некоммерческой организации The Conversation отметил, что OpenAI также изменила свою миссию в отчетности за 2024 год, убрав слово «безопасно». Ранее компания обещала создавать универсальный ИИ, который «безопасно приносит пользу человечеству, не ограничиваясь необходимостью получения финансовой отдачи». В обновленной версии говорится, что цель — «обеспечить, чтобы искусственный общий интеллект приносил пользу всему человечеству». «Проблема с термином ‘безопасность ИИ’ в том, что никто точно не знает, что он означает», — сказал Гайст. «Тем не менее, термин ‘безопасность ИИ’ тоже был предметом споров». Новая политика Anthropic подчеркивает меры прозрачности, такие как публикация «дорожных карт безопасности на передовой» и регулярных «отчетов о рисках», а также предусматривает задержки в разработке, если существует значительный риск катастрофы.

Изменения в политике Anthropic и OpenAI происходят на фоне стремления компаний укрепить свои коммерческие позиции. Ранее в этом месяце Anthropic объявила о привлечении 30 миллиардов долларов при оценке около 380 миллиардов долларов. В то же время OpenAI завершает раунд финансирования, поддержанный Amazon, Microsoft и Nvidia, который может достичь 100 миллиардов долларов. Anthropic и OpenAI, а также Google и xAI, получили выгодные государственные контракты с Министерством обороны США. Однако контракт Anthropic вызывает сомнения, поскольку Пентагон рассматривает возможность разорвать связи с компанией из-за жалоб на доступ. По мере притока капитала в сектор и усиления геополитической конкуренции Хамза Чаудри, руководитель направления ИИ и национальной безопасности в Институте будущего жизни, отметил, что изменение политики отражает смену политической динамики, а не стремление к бизнесу с Пентагоном. «Если бы это было так, они просто отказались бы от требований Пентагона, которые были озвучены на прошлой неделе», — сказал Чаудри Decrypt. «Дарио [Амодей] не пришел бы на встречу». Он добавил, что переписывание политики отражает поворотный момент в том, как компании обсуждают риски на фоне растущего политического давления и конкуренции. «Anthropic теперь говорит: ‘Послушайте, мы не можем постоянно говорить о безопасности, мы не можем безусловно приостанавливать работу, и будем добиваться более мягкого регулирования’», — отметил он.

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев