Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Рекламные акции
AI
Gate AI
Ваш универсальный AI-ассистент для любых задач
Gate AI Bot
Используйте Gate AI прямо в вашем социальном приложении
GateClaw
Gate Синий Лобстер — готов к использованию
Gate for AI Agent
AI-инфраструктура: Gate MCP, Skills и CLI
Gate Skills Hub
Более 10 тыс навыков
От офиса до трейдинга: единая база навыков для эффективного использования ИИ
GateRouter
Умный выбор из более чем 30 моделей ИИ, без дополнительных затрат (0%)
Мне показался очень интересным этот отчет, который недавно вышел о том, что на самом деле происходило внутри openai. В основном, журналисты-расследователи провели месяцы, беря интервью у более чем 100 человек, причастных к делу, получили внутренние меморандумы, никогда не публиковавшиеся, и обнаружили довольно тревожные вещи: 70-страничные документы главного ученого Ильи Сутскевера, в которых делается вывод, что Сэм Альтман демонстрировал устойчивый паттерн лжи. Это не мало.
Меня особенно поразило, как openai начала как некоммерческая организация в 2015 году с ясной обещанием ставить безопасность превыше всего. Идея заключалась в том, что если ИИ станет опасным, совет сможет иметь полномочия закрыть компанию. Но тут возникает главный вопрос: всё зависело от очень честного человека, контролирующего технологию. А что если ставка была ошибочной?
Детали вызывают тревогу. В декабре 2022 года, во время заседания совета, Сэм заявил, что функции GPT-4 уже прошли проверку безопасности. Когда попросили показать документы, выяснилось, что две из самых спорных функций так и не были одобрены советом по безопасности. Есть также заметки Дарьо Амодеи, основателя Anthropic, работавшего в области безопасности в openai, описывающие, как компания шаг за шагом отступала под давлением коммерческих интересов.
И есть еще. openai публично объявила, что выделит 20% вычислительных мощностей для команды супервыравнивания, с потенциальной стоимостью выше 1 миллиарда долларов. Но на практике? Четыре человека, работавшие там, подтвердили, что было использовано всего 1-2% от общей мощности, и оборудование было более старым. Команда была распущена, не завершив свою миссию.
Меня действительно поразило описание бывшего члена совета о Сэме. У него есть очень редкий набор качеств: в личных беседах он демонстрирует сильное желание угодить. В то же время он показывает почти социопатскую безразличность к последствиям обмана людей. Представители Microsoft даже сравнивали это с Берни Мэдоффом или SBF. Тяжело.
Теперь есть вопрос к финансовому директору Сара Фриар, которая не согласна ускорять IPO в этом году, аргументируя, что финансовые риски слишком высоки, $1 Сэм обещал расходы на вычислительные ресурсы на сумму более миллиарда долларов за пять лет(. Но потом она перестала напрямую отчитываться перед Сэмом, теперь она подчиняется другому руководителю, который взял отпуск по болезни. Компания находится в процессе IPO, при этом существуют фундаментальные разногласия между CEO и CFO. Абсурд.
Точка зрения, которую высказал Гэри Маркус, имеет смысл: если будущая модель openai сможет создавать биологическое оружие или запускать кибератаки, действительно ли вы хотите оставить решение о разрешении за человеком с таким же уровнем честности? Официальный ответ openai был расплывчатым, они спрашивали о мотивах источников, вместо того чтобы опровергать конкретные факты.
Это похоже на ту фразу, которую я видел: некоммерческая организация, созданная для защиты человечества, превратилась в коммерческую машину, где практически все меры безопасности лично устранялись одним и тем же человеком. Десять лет так можно резюмировать так: идеализм → технологический прогресс → массовый капитал → уступка миссии → разрушение безопасности → превращение структуры в прибыльную организацию.
Все это происходит в то время, как Сэм готовит openai к IPO с оценкой выше 10 миллиардов долларов. Более сотни свидетелей описали его одним словом: не ограничен правдой. Эта история гораздо больше, чем корпоративный слух. Когда речь идет о технологии, которая потенциально самая мощная в истории человечества, честность CEO — не мелочь, а экзистенциальный риск для всех.