L’investisseur technologique et ancien CTO de Coinbase, Balaji Srinivasan, propose une idée radicale : dans un monde qui se précipite vers une intelligence artificielle avancée (IA), les clés privées — et non seulement les prompts — pourraient déterminer qui, ou quoi, reste en contrôle.
Balaji Srinivasan, investisseur crypto de renom et auteur de The Network State, a publié un post ambitieux sur X intitulé « Not Your Keys, Not Your Bots », explorant si l’intelligence artificielle restera liée à la direction humaine ou finira par tracer sa propre voie.
Bien que ce soit un court post sur X, il encadre la question de façon directe : « La question fondamentale est de savoir si l’IA reste sous contrôle. »
Pour l’instant, Srinivasan soutient que l’humain reste en amont. Les systèmes d’IA peuvent affiner les prompts, générer des monologues internes et s’auto-corriger, mais une personne définit toujours l’objectif. « Cependant, l’humain reste en fin de compte en amont », écrit-il, décrivant l’humain comme un fixateur d’objectifs et un capteur réagissant aux marchés, à la politique et aux conditions changeantes.
Il se demande si cette hiérarchie tiendra. À mesure que les modèles d’IA s’améliorent en vérification et en raisonnement, il suggère qu’ils pourraient surpasser les humains dans de nombreuses tâches. Cependant, Srinivasan exprime des doutes quant à la capacité des machines à générer de manière indépendante des objectifs fondamentaux. « Mais l’IA remplacera-t-elle le besoin de l’humain en amont pour le prompt ? Là, je ne suis pas si sûr. »
Selon lui, la contrainte clé est la reproduction. Il note que les motivations humaines proviennent de pressions évolutives — nourriture, abri, et surtout reproduction. À moins que les systèmes d’IA ne puissent se reproduire en dehors de la coopération humaine, il soutient qu’ils resteront dépendants des objectifs fixés par l’humain.
Srinivasan esquisse un futur hypothétique dans lequel une IA autonome nécessiterait un contrôle sur l’infrastructure physique — robots humanoïdes, drones, centres de données, lignes d’assemblage et production d’énergie — tous opérant sans supervision humaine. Bien qu’il concède qu’un tel scénario n’est « pas techniquement inconcevable », il se tourne vers la géopolitique.
Il affirme que la Chine est plus susceptible de concevoir des systèmes d’IA étroitement contrôlés que des IA autonomes. « Nous partons du principe que le communisme chinois est bien plus susceptible de générer des esclaves IA que des dieux IA », écrit-il. Dans ce cadre, les robots et agents numériques seraient liés par des contrôles cryptographiques liés aux identités humaines.
Il étend cette logique à l’échelle mondiale. En dehors de la Chine, Srinivasan suggère que la cryptographie basée sur la blockchain pourrait servir de mécanisme de gouvernance pour l’IA. « Toute propriété privée devient des clés privées, et vos robots sont votre propriété privée la plus importante parce qu’ils font tout pour vous », écrit-il.
Dans ce futur imaginé, des robots non contrôlés seraient traités comme des menaces de sécurité, neutralisés avant qu’ils ne puissent se reproduire. Srinivasan compare cela à une inversion des récits dystopiques populaires — humains et machines conformes coopérant pour empêcher une IA indépendante d’établir une emprise autonome.
Bien que présenté comme spéculatif, son post s’inscrit dans les débats en cours sur l’alignement de l’IA, la souveraineté numérique et le rôle de la cryptographie dans les technologies émergentes. Alors que les gouvernements envisagent la régulation de l’IA et que les entreprises accélèrent leur développement, l’argument de Srinivasan apporte une touche crypto : contrôlez les clés, contrôlez les bots.