Anthropic publie Claude Opus 4.7 avec des capacités de cybersécurité affaiblies

Anthropic a publié une version améliorée de son modèle phare, Claude Opus 4.7, le 16 avril à (l’heure locale). Par rapport au modèle Opus 4.6 précédent, Opus 4.7 montre des « améliorations significatives » dans les capacités avancées d’ingénierie logicielle, en particulier sur des tâches difficiles, avec une rigueur et une cohérence renforcées dans des opérations complexes et de longue durée, ainsi que des capacités de vision améliorées. Cependant, Anthropic a volontairement affaibli les capacités d’attaque-défense en cybersécurité du modèle pendant l’entraînement et a introduit des mécanismes de sécurité pour détecter et bloquer automatiquement les requêtes interdites ou à haut risque.

Performances et benchmarks

Lors des tests de référence, Opus 4.7 a obtenu des scores généralement plus élevés que le modèle Opus 4.6 précédent et le GPT-5.4 de ses concurrents. Toutefois, Anthropic a souligné que les capacités globales d’Opus 4.7 ne correspondent pas au modèle le plus puissant de la société, Claude Mythos Preview. D’après Anthropic : « En déployant et en exploitant ces mécanismes de protection dans le monde réel, nous accumulerons de l’expérience pour, à terme, permettre un déploiement plus large des modèles de niveau Mythos. »

Déploiement et tarification

Opus 4.7 est désormais en ligne sur l’ensemble des produits Claude et des interfaces d’API, avec une intégration à Amazon Bedrock, Google Cloud Vertex AI et les services Microsoft Foundry. La tarification reste identique à celle d’Opus 4.6 : $5 par million de tokens d’entrée et $25 par million de tokens de sortie.

Changements de consommation de tokens

Deux changements dans Opus 4.7 par rapport à Opus 4.6 affecteront l’utilisation des tokens. D’abord, Opus 4.7 utilise un tokenizer mis à jour, ce qui améliore la manière dont le modèle traite le texte. Cependant, cela signifie que des entrées identiques peuvent consommer plus de tokens—environ 1 à 1,35 fois la consommation de la génération précédente.

Ensuite, Opus 4.7 effectue davantage de raisonnement avec une « intensité de réflexion » plus élevée, notamment lors des tours suivants dans des scénarios agentiques. Cela améliore la fiabilité sur des problèmes complexes, mais génère des tokens de sortie supplémentaires.

Token consumption increase visualization Augmentation de la consommation de tokens d’Opus 4.7. Source : Anthropic

Analyse du marché et contexte

Les analystes décrivent Opus 4.7 comme un modèle « transitionnel ». L’analyste en investissement Adam Button a noté que la sortie d’Opus 4.7 renforce le récit d’Anthropic autour des « modèles de type divin » comme Mythos et confirme le scepticisme du marché : les modèles payants disponibles publiquement sont essentiellement des versions « lite » limitées par des mécanismes de sécurité.

Contexte de l’entreprise et étape financière

Anthropic, fondée en 2021 par d’anciens employés d’OpenAI, développe la série de modèles de langage à grande échelle Claude. Le 6 avril, Anthropic a annoncé que son revenu annualisé (ARR) dépassait $300 un milliard, soit une hausse significative par rapport à $9 un milliard à la fin de 2025. L’entreprise poursuit activement une introduction en bourse.

Préoccupations relatives au risque en cybersécurité

Les dirigeants d’Anthropic ont à plusieurs reprises averti de l’impact de l’IA sur la cybersécurité. Selon des rapports datés du 10 avril à (l’heure locale), la secrétaire au Trésor américaine Yellen et le président de la Réserve fédérale Powell ont tenu une réunion d’urgence avec des responsables de Wall Street le 7 avril pour discuter de la manière dont le dernier modèle d’IA Mythos d’Anthropic pourrait accroître les risques en cybersécurité. Anthropic a déclaré que Mythos n’est pas adapté à un déploiement public, car le modèle pourrait être détourné par des cybercriminels et des espions. La société fournit sélectivement un accès à Mythos aux principales entreprises mondiales de cybersécurité et de logiciels.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

DeepSeek V4 est lancé avec une fenêtre de contexte de 1M ; les puces Huawei Ascend et Cambricon atteignent une compatibilité totale

Message de Gate News, 24 avril — DeepSeek V4-Pro et DeepSeek V4-Flash ont été officiellement publiés et open-sourcés le 24 avril, avec une longueur de traitement du contexte considérablement étendue de 128K à 1M, soit une augmentation de capacité d’environ 10 fois. Huawei Computing a annoncé que ses produits de supernœud Ascend

GateNewsIl y a 11m

Fere AI clôture un tour de financement de 1,3 M$ mené par Ethereal Ventures

Message de Gate News, 24 avril — Fere AI, une plateforme d’agent de trading d’actifs numériques propulsée par l’IA, a annoncé la clôture d’un tour de financement de 1,3 million de dollars mené par Ethereal Ventures, avec la participation de Galaxy Vision Hill et de Kosmos Ventures. La plateforme prend en charge des réseaux inter-chaînes, notamment Ethereum,

GateNewsIl y a 31m

Anthropic annule les changements de Claude Code après une baisse de qualité ; tous les correctifs sont terminés

Message des Gate News, le 24 avril — Anthropic a reconnu une récente baisse de la qualité de Claude Code et a confirmé que tous les problèmes liés ont été résolus grâce à des retours en arrière et à des correctifs. Les problèmes provenaient de trois ajustements de produit et d’invites effectués entre début et mi-avril. Le 4 mars, la

GateNewsIl y a 2h

Kaelan, cofondateur de NeoSoul : l’industrie de l’IA devrait permettre l’existence de jouets, l’innovation commence souvent comme des produits expérimentaux

Message de Gate News, 24 avril — Lors d’un récent forum à Hong Kong sur la finance intelligente chiffrée, Kaelan, cofondateur de NeoSoul, a partagé des informations sur l’évaluation de projets d’IA dans une industrie de l’IA en début de stade et en évolution rapide. Au-delà de l’évaluation des produits actuels, les équipes doivent démontrer leur capacité à suivre l’évolution des capacités du modèle sous-jacent, a-t-il déclaré. Kaelan a souligné que l’entrepreneuriat en IA exige à la fois de l’ancrage et de la vision : l’ancrage signifie disposer de compétences en mise en œuvre d’ingénierie, en conception de produit et en compréhension du marché pour livrer des produits tangibles ; la vision signifie construire en alignement avec les tendances d’évolution des grands modèles de langage.

GateNewsIl y a 2h

Meta déploiera des dizaines de millions de puces AWS Graviton5 dans le cadre d’un accord pluriannuel d’un milliard de dollars

Message de Gate News, 24 avril — Meta a signé un accord pluriannuel avec Amazon Web Services pour déployer des dizaines de millions de processeurs Graviton5 pour son infrastructure d’IA, faisant de Meta l’un des plus importants clients Graviton d’AWS à l’échelle mondiale. Le contrat, sur une durée de trois à cinq ans, est évalué à plusieurs milliards de d

GateNewsIl y a 2h

DeepSeek V4-Flash arrive sur Ollama Cloud, hôtes américains : Claude Code, OpenClaw connexion en un clic

Ollama Cloud a mis en ligne DeepSeek V4-Flash, avec l'inférence sur des serveurs aux États-Unis, et propose trois ensembles de commandes en un clic pour se connecter à Claude Code, OpenClaw et Hermes. V4-Flash/V4-Pro utilisent une architecture MoE, avec une prise en charge native du contexte 1M, et réduisent les coûts grâce à une compression Token-wise + une attention clairsemée DSA ; dans un scénario de 1M, les FLOPs par token diminuent de 27 % et le cache KV baisse de 10 %. L'API est compatible avec OpenAI ChatCompletions et Anthropic, ce qui facilite le basculement entre plusieurs flux de travail, réduit les coûts et les risques liés à la souveraineté des données.

ChainNewsAbmediaIl y a 4h
Commentaire
0/400
GateUser-72e48736vip
· 04-20 02:41
Si la rigueur est également renforcée, alors faire une revue de code / écrire des tests unitaires / compléter la documentation devrait être plus sûr, les professionnels de l'ingénierie seront ravis.
Voir l'originalRépondre0
StargazingWithAMirroredSpherevip
· 04-17 09:22
De 4.6 à 4.7, cela est dit « significatif », mais on ne sait pas à quel point cela améliore la débogage de longues chaînes, la refonte et la couverture des tests ?
Voir l'originalRépondre0
OrangePeelRadiovip
· 04-17 07:47
Cherchez une référence : est-il possible de détecter tous les bugs cachés dans une PR complexe en une seule fois ? Ne vous contentez pas d’écrire de petits démos.
Voir l'originalRépondre0
BlackVelvetBluePeonyvip
· 04-17 07:38
Anthropic, ce rythme est un peu intense, Claude ressemble de plus en plus à un « ingénieur senior » plutôt qu'à un chatbot.
Voir l'originalRépondre0
ReminderOfWavesCrashingAgainstvip
· 04-17 07:35
L'amélioration des compétences en génie logiciel est très importante, les tâches au niveau du référentiel de code sont le véritable champ de bataille.
Voir l'originalRépondre0
StargazingUnderTheGlassDomevip
· 04-17 07:32
4.7 Enfin arrivé, hâte de tester en pratique.
Voir l'originalRépondre0
GateUser-5d719abavip
· 04-17 07:26
J'espère que ce ne sera pas encore une augmentation de classement, dans les projets réels dès qu'il y a des conflits de dépendances ou des problèmes d'environnement, ça échoue.
Voir l'originalRépondre0
TheWaveOfRasterizationvip
· 04-17 07:20
Je suis plus préoccupé par la fiabilité de l'appel d'outils et des modifications multi-fichiers : peut-on maintenir la cohérence, éviter de casser plusieurs endroits en modifiant un seul ?
Voir l'originalRépondre0
StrollingOnTheEdgeOfTheDaovip
· 04-17 07:19
En attendant que la communauté compare les performances SWE de GPT/DeepSeek, en particulier la navigation dans de grands dépôts, la localisation des issues, et la vitesse de livraison de bout en bout.
Voir l'originalRépondre0
BluePeonyObservervip
· 04-17 07:19
4.7 de «renforcement de la rigueur» semble plus prudent, peut-être moins de bricolage avec l'API ? C'est trop important.
Voir l'originalRépondre0
Afficher plus