Il y a quelques semaines, nous avons publié un article argumentant que la souveraineté absolue des données est probablement une utopie pour le Canada. Le Cloud Act, le FISA 702, la chaîne d'approvisionnement mondialisée — tout cela rend l'idée d'une infrastructure de données nationale pleinement souveraine structurellement irréaliste.
Cet article diagnostiquait le problème. Celui-ci traite du remède.
Parce que voici le constat : chaque brique nécessaire pour construire une infrastructure d'IA véritablement souveraine et décentralisée existe déjà. Réseaux pair-à-pair. Cryptographie de bout en bout. Calcul distribué. Modèles à poids ouverts. Ce ne sont pas des concepts théoriques. Ce sont des technologies de production, éprouvées à grande échelle, disponibles aujourd'hui.
La tragédie n'est pas que les outils n'existent pas. C'est que nous regardons les mêmes erreurs de centralisation de l'ère internet se répéter en temps réel — et nous avons environ 18 à 24 mois avant que la fenêtre ne se referme.
Nous Sommes Déjà Passés par Là
L'internet a été conçu pour être décentralisé. L'architecture originale — commutation de paquets, routage distribué, aucun point de contrôle unique — a été construite précisément pour résister à la centralisation. Aucun gouvernement, aucune entreprise, aucune entité unique n'était censée posséder le réseau.
On sait comment ça s'est terminé.
En deux décennies, l'internet ouvert s'est consolidé autour d'une poignée de plateformes. Cinq entreprises — Google, Apple, Meta, Amazon, Microsoft — en sont venues à contrôler l'infrastructure, la distribution, la couche d'identité et les données. Le protocole était décentralisé. L'économie construite dessus ne l'était pas.
Le courriel était fédéré. On a eu Gmail. La messagerie était ouverte. On a eu WhatsApp. L'édition était distribuée. On a eu le fil d'actualité de Facebook. Le web était un bien commun. On a eu des jardins clos.
Le pattern est constant : une technologie ouverte émerge, l'adoption passe à l'échelle, puis les effets de réseau et la concentration du capital tirent tout vers un petit nombre de nœuds centraux. Le temps que le public réalise ce qui s'est passé, les coûts de migration sont trop élevés et le verrouillage est permanent.
L'IA suit exactement la même trajectoire. Et ça va plus vite.
La Centralisation de l'IA S'Accélère
Aujourd'hui, la pile IA se consolide autour d'un nombre remarquablement restreint d'acteurs.
Le calcul : NVIDIA contrôle environ 80 % du marché des GPU pour l'IA. Entraîner des modèles frontières nécessite des grappes qui coûtent des centaines de millions de dollars. Seule une poignée d'organisations — OpenAI, Google, Anthropic, Meta, xAI — peuvent se permettre de construire à cette échelle. La couche de calcul est plus concentrée que la couche cloud ne l'a jamais été.
Les modèles : Les modèles les plus performants sont contrôlés par cinq ou six entreprises, la plupart américaines. Même les modèles « ouverts » comme Llama de Meta viennent avec des restrictions de licence et sont entraînés sur une infrastructure que personne d'autre ne peut répliquer. L'écart entre les modèles frontières et les modèles ouverts, bien qu'il se réduise, détermine encore qui peut construire les systèmes les plus performants.
Les données : Les données d'entraînement sont le nouveau pétrole, et les puits appartiennent aux mêmes plateformes qui contrôlent la distribution. Google a le web. Meta a les graphes sociaux. Amazon a les données commerciales. Les entreprises avec le plus de données construisent les meilleurs modèles, qui attirent le plus d'utilisateurs, qui génèrent le plus de données. Le volant d'inertie tourne déjà.
L'inférence : Quand vous utilisez ChatGPT, Claude ou Gemini, vos prompts — vos questions, vos documents, votre réflexion stratégique — transitent par des serveurs centralisés contrôlés par une seule entreprise. Chaque requête est un point de données. Chaque conversation est un signal d'entraînement. La couche d'inférence est là où vit l'information la plus sensible, et elle est presque entièrement centralisée.
Les agents : La couche émergente d'IA agentique — où les systèmes d'IA prennent des actions autonomes en votre nom — amplifiera cette concentration d'un ordre de grandeur. Un agent IA qui réserve vos vols, gère votre agenda, lit vos courriels et négocie vos contrats a accès à plus de données sensibles que n'importe quelle application dans l'histoire. Si cet agent fonctionne sur une infrastructure centralisée contrôlée par une seule entreprise, l'asymétrie de pouvoir est stupéfiante.
Ce n'est pas un risque futur. C'est l'architecture actuelle. Et elle se durcit chaque mois.
Les Briques Fondamentales Existent Déjà
Voici ce qui rend ce moment différent du début d'internet : nous n'avons pas besoin d'inventer l'alternative. Les technologies nécessaires pour construire une infrastructure d'IA décentralisée et souveraine sont matures, testées et disponibles.
1. Les Réseaux Pair-à-Pair
Le concept est simple : au lieu de faire transiter toutes les données par des serveurs centraux, les nœuds communiquent directement entre eux. Pas de point de contrôle unique, pas de point de défaillance unique, pas d'entité unique qui peut être contrainte de remettre des données.
Le pair-à-pair n'est pas nouveau. BitTorrent a prouvé que la distribution P2P pouvait fonctionner à grande échelle — à son apogée, il représentait plus de 30 % de tout le trafic internet. IPFS (InterPlanetary File System) est devenu une couche de stockage décentralisé de production. libp2p fournit les primitives réseau pour construire des applications P2P.
Appliqué à l'IA, le pair-à-pair signifie : vos données ne quittent jamais votre appareil. Votre modèle tourne localement. Quand vous avez besoin de plus de calcul que votre matériel ne peut fournir, vous puisez dans un réseau de pairs — pas un cloud central. Aucune entreprise ne voit vos prompts. Aucune juridiction ne contrôle votre inférence.
2. La Cryptographie de Bout en Bout
Si le P2P est le système nerveux, la cryptographie est le système immunitaire.
Le chiffrement de bout en bout garantit que seuls l'expéditeur et le destinataire peuvent lire un message — pas l'opérateur réseau, pas le fournisseur d'infrastructure, pas un gouvernement avec un mandat. Signal l'a prouvé à l'échelle grand public. Les mathématiques sont solides. Les implémentations sont éprouvées.
Mais la cryptographie moderne va bien au-delà du simple chiffrement. Les techniques qui comptent pour l'IA décentralisée sont :
Le chiffrement homomorphe — effectuer des calculs sur des données chiffrées sans jamais les déchiffrer. Un nœud dans un réseau distribué peut traiter votre requête sans en voir le contenu. Ce n'est pas théorique. La bibliothèque SEAL de Microsoft et HElib d'IBM implémentent le chiffrement homomorphe pratique. La surcharge de performance est passée de 1 000 000x en 2010 à moins de 100x pour de nombreuses opérations aujourd'hui. Ce n'est pas gratuit, mais c'est faisable.
Les preuves à divulgation nulle (zero-knowledge proofs) — prouver qu'un calcul a été effectué correctement sans révéler les données sous-jacentes. Un modèle peut prouver qu'il vous a donné la bonne réponse sans exposer ce que vous avez demandé. Les preuves ZK alimentent des milliards de dollars en transactions blockchain quotidiennement. L'infrastructure cryptographique est de qualité production.
Le calcul multi-parties sécurisé (MPC) — plusieurs parties calculent conjointement une fonction sur leurs entrées tout en gardant ces entrées privées. Aucune partie ne voit les données complètes. Appliqué à l'IA, le MPC permet à plusieurs organisations d'entraîner un modèle ensemble sans qu'aucune d'entre elles n'expose ses données propriétaires aux autres.
L'apprentissage fédéré — entraîner un modèle à travers plusieurs appareils décentralisés détenant des échantillons de données locaux, sans échanger les données elles-mêmes. Google l'utilise en production pour la prédiction de clavier sur Android. Apple l'utilise pour les améliorations de Siri. La technique fonctionne. La question est de savoir si elle sera appliquée au-delà des jardins clos des entreprises qui l'ont inventée.
Ce ne sont pas des articles de recherche. Ce sont des systèmes déployés. La boîte à outils cryptographique pour le calcul privé, vérifiable et décentralisé existe en ce moment.
3. Le Calcul Distribué
L'argument de centralisation de l'IA revient toujours au calcul : « Vous avez besoin de grappes GPU massives pour faire tourner ces modèles. Seules les grandes entreprises peuvent se le permettre. » C'était vrai en 2023. Ça le devient de moins en moins chaque trimestre.
L'efficacité des modèles explose. Les techniques de quantification (GPTQ, AWQ, GGUF) ont compressé les modèles de 16 bits à 4 bits et même 2 bits avec une perte de qualité minimale. Un modèle qui nécessitait un A100 de 80 Go il y a deux ans fonctionne maintenant sur un portable avec 16 Go de RAM. Llama 3 70B tourne sur du matériel grand public. Les modèles de Mistral sont conçus pour l'efficacité dès le départ.
L'inférence en périphérie est réelle. Les puces M d'Apple, les NPU de Qualcomm et Intel Meteor Lake incluent tous des accélérateurs IA dédiés. Le téléphone dans votre poche a plus de capacité d'inférence IA qu'une baie de serveurs il y a cinq ans. Le calcul est déjà distribué — il est sur 4 milliards de smartphones et un milliard de portables.
L'entraînement distribué mûrit. Des projets comme Hivemind et Petals permettent l'entraînement et l'inférence collaboratifs à travers du matériel grand public géographiquement distribué. La performance n'est pas encore compétitive avec les grappes centralisées pour l'entraînement frontière, mais pour le fine-tuning et l'inférence de modèles existants, ça fonctionne aujourd'hui.
Les marchés de calcul coordonnés par blockchain émergent. Des réseaux comme Akash, Render et io.net permettent à quiconque de contribuer de la capacité GPU et d'être rémunéré. Le problème de coordination — faire correspondre l'offre et la demande de calcul dans un environnement sans confiance — est résolu avec les mêmes mécanismes qui alimentent la finance décentralisée.
La centralisation du calcul n'est pas une loi de la physique. C'est une conséquence de l'économie et des coûts de coordination. Les deux changent.
4. Les Modèles à Poids Ouverts
C'est la couche qui rend tout le reste possible.
Un modèle fermé — ChatGPT, Claude, Gemini — est une boîte noire. Vous envoyez des données, vous recevez des résultats, et vous n'avez aucune visibilité sur ce qui se passe entre les deux. Vous ne pouvez pas le faire tourner sur votre propre matériel. Vous ne pouvez pas vérifier ce qu'il fait de vos données. Vous ne pouvez pas modifier son comportement. Vous êtes locataire, pas propriétaire.
Les modèles à poids ouverts changent l'équation entièrement. Quand Meta a publié Llama, quand Mistral a publié ses modèles, quand la communauté open source a construit Stable Diffusion — ils ont donné à tout le monde la capacité de faire tourner une IA de pointe selon leurs propres conditions.
Ce que les modèles ouverts permettent :
- L'inférence locale — faire tourner le modèle sur votre matériel. Vos données ne quittent jamais vos locaux. Pas d'appels API, pas de serveurs tiers, pas de juridiction étrangère.
- Le fine-tuning — adapter le modèle à votre domaine, votre langue, vos exigences réglementaires. Un cabinet d'avocats québécois peut fine-tuner un modèle sur le droit civil québécois sans envoyer un seul document à San Francisco.
- L'auditabilité — inspecter les poids, l'architecture et la méthodologie d'entraînement du modèle. Vérifier qu'il fait ce qu'il prétend. Identifier les biais. Tester les cas limites.
- La permanence — un modèle ouvert ne peut pas être discontinué, retarifé ou modifié sans votre consentement. Pas de verrouillage fournisseur. Pas de changements soudains de conditions d'utilisation. Pas d'avis de dépréciation d'API.
L'écart entre modèles ouverts et fermés se réduit. Llama 3.1 405B rivalise avec GPT-4 sur de nombreux benchmarks. Mistral Large est compétitif avec Claude. DeepSeek et Qwen progressent rapidement. L'idée que vous avez besoin d'un modèle fermé et centralisé pour un travail sérieux devient de moins en moins vraie à chaque cycle de publication.
La Pile : Comment Tout S'Assemble
Ces quatre couches — réseau P2P, cryptographie, calcul distribué et modèles ouverts — ne sont pas des outils isolés. Elles se composent en une architecture alternative complète pour l'IA.
Couche 4 : MODÈLES OUVERTS
Tourner localement, fine-tuner pour votre domaine, auditer les poids
↓
Couche 3 : CALCUL DISTRIBUÉ
Puiser dans un réseau de pairs pour le débordement, payer par cycle
↓
Couche 2 : CRYPTOGRAPHIE
Chiffrement homomorphe, preuves ZK, MPC — calculer sur des données invisibles
↓
Couche 1 : RÉSEAU PAIR-À-PAIR
Pas de serveur central, pas de juridiction unique, pas de point de contrainte unique
Une entreprise fonctionnant sur cette pile ressemblerait à ceci :
- Votre agent IA fait tourner un modèle à poids ouverts localement sur votre matériel.
- Quand il a besoin de plus de calcul que votre machine ne peut fournir, il distribue la charge de travail à travers un réseau P2P de nœuds participants.
- Vos données sont chiffrées de bout en bout. Les nœuds qui traitent vos requêtes ne voient jamais le contenu. Les preuves à divulgation nulle vérifient que le calcul a été fait correctement.
- Aucune entreprise, aucun gouvernement, aucune juridiction ne contrôle une partie du pipeline.
Ce n'est pas de la science-fiction. Chaque composant existe aujourd'hui. Le travail d'intégration est là où réside le défi — et c'est un défi d'ingénierie, pas un défi théorique.
La Fenêtre Se Referme
Voici pourquoi l'urgence compte.
La centralisation suit une loi de puissance. Une fois qu'une plateforme atteint la masse critique, les coûts de migration rendent la transition prohibitivement coûteuse. Demandez à n'importe quelle entreprise qui a essayé de quitter Oracle. Demandez à n'importe quel consommateur qui a essayé de quitter l'écosystème Apple. Demandez à n'importe quel gouvernement qui a essayé d'arrêter d'utiliser Microsoft 365.
La centralisation de l'IA approche ce point d'inflexion. Si OpenAI, Google et Anthropic capturent la majorité des workflows d'IA d'entreprise dans les deux prochaines années, les coûts de migration seront énormes. Vos agents seront construits sur leurs API. Vos données seront dans leurs journaux d'inférence. Vos workflows seront conçus autour de leurs capacités. Migrer vers une alternative décentralisée sera des ordres de grandeur plus difficile qu'en adopter une dès le départ.
L'écosystème crypto et Web3 a appris cette leçon à la dure. Malgré la construction de protocoles véritablement décentralisés, l'adoption a traîné parce que les alternatives centralisées (Coinbase, Binance) offraient une meilleure UX et un onboarding plus rapide. Le temps que les échanges décentralisés mûrissent, la plupart des utilisateurs étaient déjà verrouillés dans des plateformes centralisées.
La même dynamique se joue avec l'IA. ChatGPT a 200 millions d'utilisateurs actifs hebdomadaires. Claude est intégré dans les workflows d'entreprise. Gemini est intégré dans toute la suite de produits Google. Chaque semaine qui passe sans alternative décentralisée viable est une semaine où le verrouillage s'approfondit.
Ce Qui Doit Se Passer
La technologie existe. Le défi est la coordination, l'investissement et la volonté politique.
Les gouvernements doivent financer une infrastructure IA décentralisée, pas des nuages souverains. Les 1,4 milliard $ en contrats de souveraineté du Canada auraient un impact bien plus grand s'ils étaient dirigés vers le développement de modèles ouverts, les réseaux de calcul distribué et la recherche en IA préservant la vie privée plutôt que vers la construction de centres de données gouvernementaux qui tourneront sur des logiciels américains de toute façon.
Les entreprises doivent adopter les modèles ouverts maintenant, pendant que les coûts de migration sont bas. Chaque entreprise qui fait tourner un workflow IA en production sur une API fermée devrait mener une évaluation parallèle sur un modèle ouvert. Pas comme une expérience. Comme une couverture contre le verrouillage.
La communauté open source doit résoudre le problème d'UX. Faire tourner un modèle ouvert localement est encore plus difficile que de s'inscrire à ChatGPT. L'écart se réduit (Ollama, LM Studio et Jan ont fait d'énormes progrès), mais « installer Docker, télécharger un modèle de 40 Go, configurer vos pilotes GPU » ne peut pas rivaliser avec « ouvrir un onglet de navigateur ». Celui qui résout le dernier kilomètre de l'UX pour l'IA décentralisée gagne.
Le calcul préservant la vie privée a besoin de déploiements réels, pas seulement d'articles. Le chiffrement homomorphe, l'apprentissage fédéré et le calcul multi-parties sécurisé sont assez matures pour une utilisation en production dans des domaines spécifiques. La santé, le juridique, les services financiers — ces industries ont à la fois la motivation réglementaire et le budget pour être pionnières de l'inférence IA privée. Quelqu'un doit y aller en premier à grande échelle.
Les réseaux de calcul distribué doivent prouver leur fiabilité. La technologie fonctionne. La question est de savoir si un réseau de pairs peut égaler le temps de disponibilité, la latence et la constance que les entreprises attendent d'AWS. C'est un problème soluble, mais il nécessite un investissement dans les protocoles de coordination, les garanties de qualité de service et la conception d'incitations économiques.
Les Enjeux
Nous ne débattons pas de préférences technologiques. Nous débattons de pouvoir.
Quiconque contrôle la couche d'inférence IA contrôle le système de traitement de l'information le plus puissant de l'histoire humaine. Si ce contrôle se concentre dans cinq entreprises, toutes basées dans un seul pays, toutes soumises à l'autorité juridique d'un seul gouvernement — les implications pour chaque autre nation, chaque autre économie, chaque autre démocratie sont profondes.
L'internet original était censé distribuer le pouvoir. Au lieu de ça, il l'a concentré. Nous avons eu deux décennies de protocoles ouverts, suivies d'une décennie de consolidation des plateformes qui a défait la majeure partie de l'architecture distribuée sur laquelle l'internet a été construit.
L'IA compresse cette ligne temporelle. La consolidation qui a pris 20 ans à l'internet se produit en 5 ans pour l'IA. La fenêtre pour construire des alternatives n'est pas une décennie. C'est quelques années.
Les outils existent. Les réseaux pair-à-pair, éprouvés par deux décennies de BitTorrent et IPFS. La cryptographie, prouvée par des milliards en transactions blockchain quotidiennes. Le calcul distribué, rendu faisable par les puces IA dans chaque téléphone et portable. Les modèles ouverts, compétitifs avec les alternatives fermées et s'améliorant chaque trimestre.
La question n'est pas de savoir si l'IA décentralisée est possible. C'est de savoir si nous avons la volonté collective de la construire avant que l'alternative centralisée ne devienne permanente.
Nous avons tous les outils nécessaires. Nous avons toutes les leçons de toutes les erreurs commises pendant la première ère d'internet. La seule chose que nous ne pouvons pas nous permettre de manquer, c'est le sentiment d'urgence.
La fenêtre est ouverte. Elle ne le restera pas longtemps.
HUBBVEE aide les entreprises à naviguer l'adoption de l'IA avec lucidité — en équilibrant capacité et souveraineté, vitesse et indépendance stratégique. Parlons-en.