Selon BlockBeats news, le 2 mars, Anthropic a été accusé d’avoir lancé un outil de prompt pour « exporter les données mémoire ChatGPT » afin d’aider les utilisateurs à migrer les informations de mémoire historique vers son modèle Claude, ce qui a attiré l’attention de l’industrie.
Selon le contenu public, l’outil peut exporter les données mémoire des utilisateurs dans ChatGPT d’OpenAI et les importer sur Claude en copiant-collant des invites spécifiques. Selon des discussions connexes, cette mesure est considérée comme affaiblissant directement la fixité des utilisateurs et les coûts de conversion liés à la dépendance de ChatGPT à la « fonction mémoire ».
La vision du marché est que le mécanisme mémoire est considéré comme un fossé important pour les produits de modèles à grande échelle : plus l’utilisateur l’utilise longtemps, plus la compréhension approfondie du modèle de ses préférences, de son contexte et de son dialogue historique, et plus le coût de migration est élevé. Si des outils tiers peuvent faciliter la migration de données, cela pourrait modifier la logique de verrouillage utilisateur des produits d’IA actuels.
Parallèlement, les informations ont également mentionné qu’Anthropic était autrefois interdite d’utiliser le système pertinent du Département de la Défense des États-Unis, mais que la popularité et l’attention de l’entreprise ont rapidement augmenté, atteignant la tête de la liste des candidatures.
À l’heure actuelle, la conformité spécifique des outils ci-dessus et la réponse de la plateforme n’ont pas encore été clarifiées. L’industrie estime généralement que la concurrence des grands modèles s’est étendue de la compétition de performance au niveau de l’écologie et de la souveraineté des données, et que la portabilité des données utilisateurs pourrait devenir une variable clé à la prochaine étape.