Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Pre-IPOs
Отримайте повний доступ до глобальних IPO акцій.
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Акції
AI
Gate AI
Ваш універсальний AI-помічник для спілкування
Gate AI Bot
Використовуйте Gate AI безпосередньо у своєму соціальному додатку
GateClaw
Gate Блакитний Лобстер — готовий до використання
Gate for AI Agent
AI-інфраструктура, Gate MCP, Skills і CLI
Gate Skills Hub
Понад 10 000 навичок
Від офісу до трейдингу: універсальна база навичок для ефективнішої роботи з AI
GateRouter
Розумний вибір із понад 40 моделей ШІ, без додаткових витрат (0%)
GPT-5.5 '9,7Т параметр' переоцінено: переглянуто до приблизно 1,5Т
Згідно з моніторингом від Beating, дослідники штучного інтелекту Лоренс Чан і Бенно Стурджен опублікували огляд статті головного наукового співробітника Pine AI Лі Боціє під назвою «Непрохідні дослідження знань: оцінка кількості параметрів чорних ящиків великих мовних моделей на основі їхньої здатності до фактів». Оригінальна стаття оцінювала GPT-5.5 приблизно у 9,7 трильйонів, Claude Opus — близько 4,0 трильйонів, а o1 — приблизно 3,5 трильйонів, використовуючи 1400 питань з тривіальними фактами для «ваги» закритих моделей. Рецензенти вважають, що хоча сам підхід є цінним, початкові цифри були значно завищені через критерії оцінювання та якість питань. Основна проблема полягає у «підлозі балу». Оригінальна стаття розділила питання на сім рівнів складності, і коли модель відповідала занадто багато неправильно на певному рівні, бал міг теоретично стати негативним; однак код фактично повертав мінімальний бал для кожного рівня до 0. Це завищувало різницю у продуктивності сучасних моделей на складних питаннях і додатково збільшувало оцінений кількість параметрів. У статті стверджувалося, що цього не робили, але код і опубліковані результати використовували цей підхід. Після видалення «підлоги балу» нахил підгонки зменшився з 6,79 до 3,56. Цей нахил можна зрозуміти як «на кожен приріст у балу, скільки зростає кількість параметрів»; менший нахил означає, що однаковий різниця у балу тепер не відповідає такій екзагерованій різниці у кількості параметрів. Значення R² знизилося з 0,917 до 0,815, що свідчить про те, що крива підгонки «бал — кількість параметрів» стала менш стабільною, ніж у початковій статті. Інтервал прогнозу на 90% розширився з 3,0 до 5,7 разів, що свідчить про ширший діапазон похибки і те, що односторонні цифри не слід сприймати серйозно. У огляді також зазначалося, що 131 з 1400 питань мали неоднозначності або неправильні відповіді, що становить 9,4%. Проблеми переважно концентрувалися у складних питаннях, які використовувалися для розрізнення передових закритих моделей, таких як GPT-5.5 і Claude Opus 4.7. За їхніми оновленими критеріями, GPT-5.5 зменшилася з 9659B до 1458B, з 90% інтервалом прогнозу від 256B до 8311B; Claude Opus 4.7 — з 4042B до 1132B; а GPT-5 — з 4088B до 1330B. Рецензенти також підкреслили, що 1,5Т не слід вважати справжньою кількістю параметрів для GPT-5.5. Більш точним висновком є те, що цей «метод зважування тривіальних фактів» дуже чутливий до деталей оцінювання та якості питань, і цифри на кшталт 9,7Т не можна безпосередньо використовувати як міру ваги для закритих моделей.