Код Anthropic Claude завищив оплату користувачу на $200,98 через помилку в білінгу; спочатку відмовили у поверненні коштів, перш ніж повністю компенсувати збитки

За моніторингом від Beating, помилка в білінгу в сервісі Anthropic Claude Code спричинила те, що для Max на 20x підписника було стягнуто зайві $200,98 за додаткове використання, хоча він фактично використав лише 13% свого щомісячного ліміту. Баг спрацював, коли історія комітів git-репозиторію користувача містила рядок у верхньому регістрі “HERMES.md”; система обійшла ліміти підписки та натомість стягнула додаткові кошти за використання.

Система запобігання зловживанням Anthropic виконувала зіставлення рядків для git-логів, вбудованих у системні підказки, ймовірно, намагаючись виявити неофіційні API-клієнти, але помилково позначила законних користувачів, які згадували файл конфігурації Hermes Agent.

Після того як користувач подав запит на повернення коштів, AI-служба підтримки Anthropic спочатку відмовила в компенсації, заявивши, що не може повернути кошти за помилки білінгового маршрутизації. Відмова викликала хвилю обурення на GitHub і Hacker News, що вивело тему на головну сторінку. Згодом учасник команди Claude Code Thariq оголосив, що всі постраждалі користувачі отримають повні повернення коштів, а також еквівалентну компенсацію кредитами.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

Forefront Tech завершує $100M зведення цін IPO, лістинг на Nasdaq за кодом FTHAU

За даними ChainCatcher, спеціальна інвестиційна компанія з викупом Forefront Tech завершила розміщення IPO на суму 100 мільйонів доларів 30 квітня та буде торгуватися на Nasdaq під тикером FTHAU. Компанія планує використати виручені кошти для пошуку можливостей злиттів і поглинань у блокчейні, фінтеху, штучному

GateNews1год тому

DeepSeek 30 квітня представив метод Visual Primitives для покращення мультимодальних міркувань

Згідно з технічним звітом DeepSeek, 30 квітня компанія представила Visual Primitives — метод, який вбудовує базові візуальні одиниці, зокрема точки та рамки, у ланцюжки міркувань, щоб вирішити проблему Reference Gap у мультимодальних завданнях. Метод зменшує споживання токенів зображень

GateNews2год тому

NVIDIA випустила ваги флагманської моделі Cosmos-Reason2-32B і розширила контекстне вікно до 256K токенів

За даними Beating, NVIDIA випустила ваги для Cosmos-Reason2-32B — флагманської версії її фізичного AI-міркувального vision-language-моделю (VLM), створеної для того, щоб роботи та системи автономного керування могли розуміти просторові, часові й фізичні принципи. Модель із 32 мільярдами параметрів,

GateNews2год тому

OpenAI пояснює, чому Codex забороняє згадувати «ґоблінів»: винагорода за «ботанський» характер вийшла з-під контролю

OpenAI у своєму офіційному блозі пояснила, що Codex забороняє “говоріння” про гоблінів та інших істот, і що причиною стали заохочувальні сигнали, які віддають перевагу біологічним метафорам під час тренування “ботанічного” характеру, що призвело до кросперсонального забруднення та помилкового спрямування RLHF. Подія спалахнула після того, як Barron Roth викрив системні інструкції; OpenAI застосувала дві стратегії — короткострокове жорстке хардкодування та довгострокове очищення заохочувальних сигналів — попереджаючи про вразливість дизайну нагород, а для посттренувальних аудитів потрібна точніша деталізація.

ChainNewsAbmedia2год тому

Alibaba відкриває у відкритому доступі модуль інтерпретованості Qwen-Scope для Qwen, який охоплює 7 моделей, станом на 30 квітня

За даними PANews, 30 квітня Qwen від Alibaba оголосив про відкритий код Qwen-Scope — модулю інтерпретованості, натренованого на моделях серій Qwen3 і Qwen3.5. Реліз охоплює 7 великих мовних моделей у варіантах для щільних і mixture-of-experts, із 14 наборами sparse autoencoder

GateNews3год тому

AI-сервери Nvidia B300 досягли 1 мільйона доларів у Китаї на тлі дефіциту поставок

За даними Reuters, сервери для AI Nvidia B300 тепер продаються в Китаї приблизно за 7 мільйонів юанів (1 мільйон доларів США), що зумовлено посиленням боротьби зі схемами контрабанди та збереженням попиту з боку місцевих технічних компаній. Ціна зросла з приблизно 4 мільйонів юанів (585 тисяч доларів США) наприкінці 2025 року, значно

GateNews3год тому
Прокоментувати
0/400
Немає коментарів