← Back to feedA few weeks ago, we published an article arguing that absolute data sovereignty is probably a utopia for Canada. The Cloud Act, FISA 702, the globalized supply chain — all of it makes the idea of fully sovereign national data infrastructure structurally unrealistic.
That article diagnosed the problem. This one is about the cure.
Because here is the thing: every building block needed to construct a genuinely sovereign AI infrastructure already exists. Peer-to-peer networking. End-to-end cryptography. Distributed compute. Open-weight models. These are not theoretical concepts. They are production-grade technologies, battle-tested at scale, available today.
The tragedy is not that the tools do not exist. It is that we are watching the same centralization mistakes of the internet era repeat themselves in real time — and we have about 18 to 24 months before the window closes.
We Have Been Here Before
The internet was designed to be decentralized. The original architecture — packet switching, distributed routing, no single point of control — was built precisely to resist centralization. No government, no corporation, no single entity was supposed to own the network.
We know how that turned out.
Within two decades, the open internet consolidated into a handful of platforms. Five companies — Google, Apple, Meta, Amazon, Microsoft — came to control the infrastructure, the distribution, the identity layer, and the data. The protocol was decentralized. The economy built on top of it was not.
Email was federated. We got Gmail. Messaging was open. We got WhatsApp. Publishing was distributed. We got Facebook's News Feed. The web was a commons. We got walled gardens.
The pattern is consistent: an open technology emerges, adoption scales, and then network effects and capital concentration pull everything toward a small number of central nodes. By the time the public realizes what happened, switching costs are too high and the lock-in is permanent.
AI is following the exact same trajectory. And it is happening faster.
The Centralization of AI Is Accelerating
Today, the AI stack is consolidating around a remarkably small number of players.
Compute: NVIDIA controls roughly 80% of the AI GPU market. Training frontier models requires clusters that cost hundreds of millions of dollars. Only a handful of organizations — OpenAI, Google, Anthropic, Meta, xAI — can afford to build at that scale. The compute layer is more concentrated than the cloud layer ever was.
Models: The most capable models are controlled by five or six companies, most of them American. Even "open" models like Meta's Llama come with licensing restrictions and are trained on infrastructure no one else can replicate. The gap between frontier and open models, while narrowing, still determines who can build the most capable systems.
Data: Training data is the new oil, and the wells are owned by the same platforms that control distribution. Google has the web. Meta has social graphs. Amazon has commerce data. The companies with the most data build the best models, which attract the most users, which generate the most data. The flywheel is already spinning.
Inference: When you use ChatGPT, Claude, or Gemini, your prompts — your questions, your documents, your strategic thinking — flow through centralized servers controlled by a single company. Every query is a data point. Every conversation is training signal. The inference layer is where the most sensitive information lives, and it is almost entirely centralized.
Agents: The emerging agentic AI layer — where AI systems take autonomous actions on your behalf — will amplify this concentration by an order of magnitude. An AI agent that books your flights, manages your calendar, reads your email, and negotiates your contracts has access to more sensitive data than any single application in history. If that agent runs on centralized infrastructure controlled by a single company, the power asymmetry is staggering.
This is not a future risk. This is the current architecture. And it is hardening every month.
The Building Blocks Already Exist
Here is what makes this moment different from the early internet: we do not have to invent the alternative. The technologies needed to build decentralized, sovereign AI infrastructure are mature, tested, and available.
1. Peer-to-Peer Networks
The concept is simple: instead of routing all data through central servers, nodes communicate directly with each other. No single point of control, no single point of failure, no single entity that can be compelled to hand over data.
P2P is not new. BitTorrent proved that peer-to-peer distribution could handle massive scale — at its peak, it accounted for over 30% of all internet traffic. IPFS (InterPlanetary File System) has matured into a production-grade decentralized storage layer. libp2p provides the networking primitives for building P2P applications.
Applied to AI, peer-to-peer means: your data never leaves your device. Your model runs locally. When you need more compute than your hardware can provide, you tap into a network of peers — not a central cloud. No single company sees your prompts. No single jurisdiction controls your inference.
2. End-to-End Cryptography
If P2P is the nervous system, cryptography is the immune system.
End-to-end encryption ensures that only the sender and recipient can read a message — not the network operator, not the infrastructure provider, not a government with a warrant. Signal proved this at consumer scale. The mathematics are sound. The implementations are battle-tested.
But modern cryptography goes far beyond simple encryption. The techniques that matter for decentralized AI are:
Homomorphic encryption — perform computations on encrypted data without ever decrypting it. A node in a distributed network can process your query without seeing its contents. This is not theoretical. Microsoft's SEAL library and IBM's HElib implement practical homomorphic encryption. Performance overhead has dropped from 1,000,000x in 2010 to under 100x for many operations today. It is not free, but it is feasible.
Zero-knowledge proofs — prove that a computation was performed correctly without revealing the underlying data. A model can prove it gave you the right answer without exposing what you asked. ZK-proofs power billions of dollars in blockchain transactions daily. The cryptographic infrastructure is production-grade.
Secure multi-party computation (MPC) — multiple parties jointly compute a function over their inputs while keeping those inputs private. No single party sees the complete data. Applied to AI, MPC lets multiple organizations train a model together without any of them exposing their proprietary data to the others.
Federated learning — train a model across multiple decentralized devices holding local data samples, without exchanging the data itself. Google uses this in production for keyboard prediction on Android. Apple uses it for Siri improvements. The technique works. The question is whether it gets applied beyond the walled gardens of the companies that pioneered it.
These are not research papers. These are deployed systems. The cryptographic toolkit for private, verifiable, decentralized computation exists right now.
3. Distributed Compute
The AI centralization argument always comes back to compute: "You need massive GPU clusters to run these models. Only big companies can afford that." This was true in 2023. It is becoming less true every quarter.
Model efficiency is exploding. Quantization techniques (GPTQ, AWQ, GGUF) have compressed models from 16-bit to 4-bit and even 2-bit precision with minimal quality loss. A model that required an 80GB A100 two years ago now runs on a laptop with 16GB of RAM. Llama 3 70B runs on consumer hardware. Mistral's models are designed for efficiency from the ground up.
Edge inference is real. Apple's M-series chips, Qualcomm's NPUs, and Intel's Meteor Lake all include dedicated AI accelerators. The phone in your pocket has more AI inference capability than a data center rack had five years ago. The compute is already distributed — it is sitting on 4 billion smartphones and a billion laptops.
Distributed training is maturing. Projects like Hivemind and Petals allow collaborative training and inference across geographically distributed consumer hardware. The performance is not yet competitive with centralized clusters for frontier training, but for fine-tuning and inference of existing models, it works today.
Blockchain-coordinated compute markets are emerging. Networks like Akash, Render, and io.net let anyone contribute GPU capacity and get paid for it. The coordination problem — matching compute supply with demand in a trustless environment — is being solved with the same mechanisms that power decentralized finance.
The centralization of compute is not a law of physics. It is a consequence of economics and coordination costs. Both are changing.
4. Open-Weight Models
This is the layer that makes everything else possible.
A closed model — ChatGPT, Claude, Gemini — is a black box. You send data in, you get results out, and you have no visibility into what happens in between. You cannot run it on your own hardware. You cannot verify what it does with your data. You cannot modify its behavior. You are a tenant, not an owner.
Open-weight models change the equation entirely. When Meta released Llama, when Mistral released its models, when the open-source community built Stable Diffusion — they gave everyone the ability to run state-of-the-art AI on their own terms.
What open models enable:
- Local inference — run the model on your hardware. Your data never leaves your premises. No API calls, no third-party servers, no foreign jurisdiction.
- Fine-tuning — adapt the model to your domain, your language, your regulatory requirements. A Quebec law firm can fine-tune a model on Quebec civil law without sending a single document to San Francisco.
- Auditability — inspect the model's weights, architecture, and training methodology. Verify that it does what it claims. Identify biases. Test edge cases.
- Permanence — an open model cannot be discontinued, repriced, or modified without your consent. No vendor lock-in. No sudden terms-of-service changes. No API deprecation notice.
The gap between open and closed models is narrowing. Llama 3.1 405B competes with GPT-4 on many benchmarks. Mistral Large is competitive with Claude. DeepSeek and Qwen are advancing rapidly. The idea that you need a closed, centralized model for serious work is becoming less true with every release cycle.
The Stack: How It Fits Together
These four layers — P2P networking, cryptography, distributed compute, and open models — are not isolated tools. They compose into a complete alternative architecture for AI.
Layer 4: OPEN MODELS
Run locally, fine-tune for your domain, audit the weights
↓
Layer 3: DISTRIBUTED COMPUTE
Tap a peer network for overflow, pay per cycle, no central cluster
↓
Layer 2: CRYPTOGRAPHY
Homomorphic encryption, ZK-proofs, MPC — compute on data you never see
↓
Layer 1: PEER-TO-PEER NETWORK
No central server, no single jurisdiction, no single point of compulsion
A business running this stack would look like this:
- Your AI agent runs an open-weight model locally on your hardware.
- When it needs more compute than your machine can provide, it distributes the workload across a P2P network of participating nodes.
- Your data is encrypted end-to-end. Nodes that process your queries never see the contents. Zero-knowledge proofs verify the computation was done correctly.
- No single company, no single government, no single jurisdiction controls any part of the pipeline.
This is not science fiction. Every component exists today. The integration work is where the challenge lies — and it is an engineering challenge, not a theoretical one.
The Window Is Closing
Here is why urgency matters.
Centralization follows a power law. Once a platform reaches critical mass, switching costs make migration prohibitively expensive. Ask any enterprise that tried to move off Oracle. Ask any consumer that tried to leave the Apple ecosystem. Ask any government that tried to stop using Microsoft 365.
AI centralization is approaching that inflection point. If OpenAI, Google, and Anthropic capture the majority of enterprise AI workflows in the next two years, the switching costs will be enormous. Your agents will be built on their APIs. Your data will be in their inference logs. Your workflows will be designed around their capabilities. Migrating to a decentralized alternative will be orders of magnitude harder than adopting one from the start.
The crypto and Web3 ecosystem learned this lesson the hard way. Despite building genuinely decentralized protocols, adoption lagged because the centralized alternatives (Coinbase, Binance) offered better UX and faster onboarding. By the time decentralized exchanges matured, most users were already locked into centralized platforms.
The same dynamic is playing out with AI. ChatGPT has 200 million weekly active users. Claude is embedded in enterprise workflows. Gemini is integrated into Google's entire product suite. Every week that passes without a viable decentralized alternative is a week where lock-in deepens.
What Needs to Happen
The technology exists. The challenge is coordination, investment, and political will.
Governments need to fund decentralized AI infrastructure, not sovereign clouds. Canada's $1.4 billion in sovereignty contracts would have vastly more impact directed toward open-model development, distributed compute networks, and privacy-preserving AI research than toward building government data centers that will run on American software anyway.
Enterprises need to adopt open models now, while switching costs are low. Every company running a production AI workflow on a closed API should be running a parallel evaluation on an open model. Not as an experiment. As a hedge against lock-in.
The open-source community needs to solve the UX problem. Running an open model locally is still harder than signing up for ChatGPT. The gap is closing (Ollama, LM Studio, and Jan have made enormous progress), but "install Docker, download a 40GB model, configure your GPU drivers" is not competitive with "open a browser tab." Whoever solves the last-mile UX for decentralized AI wins.
Privacy-preserving computation needs real-world deployment, not just papers. Homomorphic encryption, federated learning, and secure multi-party computation are mature enough for production use in specific domains. Healthcare, legal, financial services — these industries have both the regulatory motivation and the budget to pioneer private AI inference. Someone needs to go first at scale.
Distributed compute networks need to prove reliability. The technology works. The question is whether a peer network can match the uptime, latency, and consistency that enterprises expect from AWS. This is a solvable problem, but it requires investment in coordination protocols, quality-of-service guarantees, and economic incentive design.
The Stakes
We are not arguing about technology preferences. We are arguing about power.
Whoever controls the AI inference layer controls the most powerful information-processing system in human history. If that control concentrates in five companies, all headquartered in one country, all subject to one government's legal authority — the implications for every other nation, every other economy, every other democracy are profound.
The original internet was supposed to distribute power. Instead, it concentrated it. We had two decades of open protocols, followed by one decade of platform consolidation that undid most of the distributed architecture the internet was built on.
AI is compressing that timeline. The consolidation that took the internet 20 years is happening in AI in 5. The window for building alternatives is not a decade. It is a couple of years.
The tools exist. Peer-to-peer networking, battle-tested by two decades of BitTorrent and IPFS. Cryptography, proven by billions in daily blockchain transactions. Distributed compute, made feasible by the AI chips in every phone and laptop. Open models, competitive with closed alternatives and improving every quarter.
The question is not whether decentralized AI is possible. It is whether we have the collective will to build it before the centralized alternative becomes permanent.
We have every tool we need. We have every lesson from every mistake made during the first internet era. The only thing we can afford to lack is urgency.
The window is open. It will not stay open long.
HUBBVEE helps businesses navigate AI adoption with clear eyes — balancing capability with sovereignty, and speed with strategic independence. Let's talk.
Il y a quelques semaines, nous avons publié un article argumentant que la souveraineté absolue des données est probablement une utopie pour le Canada. Le Cloud Act, le FISA 702, la chaîne d'approvisionnement mondialisée — tout cela rend l'idée d'une infrastructure de données nationale pleinement souveraine structurellement irréaliste.
Cet article diagnostiquait le problème. Celui-ci traite du remède.
Parce que voici le constat : chaque brique nécessaire pour construire une infrastructure d'IA véritablement souveraine et décentralisée existe déjà. Réseaux pair-à-pair. Cryptographie de bout en bout. Calcul distribué. Modèles à poids ouverts. Ce ne sont pas des concepts théoriques. Ce sont des technologies de production, éprouvées à grande échelle, disponibles aujourd'hui.
La tragédie n'est pas que les outils n'existent pas. C'est que nous regardons les mêmes erreurs de centralisation de l'ère internet se répéter en temps réel — et nous avons environ 18 à 24 mois avant que la fenêtre ne se referme.
Nous Sommes Déjà Passés par Là
L'internet a été conçu pour être décentralisé. L'architecture originale — commutation de paquets, routage distribué, aucun point de contrôle unique — a été construite précisément pour résister à la centralisation. Aucun gouvernement, aucune entreprise, aucune entité unique n'était censée posséder le réseau.
On sait comment ça s'est terminé.
En deux décennies, l'internet ouvert s'est consolidé autour d'une poignée de plateformes. Cinq entreprises — Google, Apple, Meta, Amazon, Microsoft — en sont venues à contrôler l'infrastructure, la distribution, la couche d'identité et les données. Le protocole était décentralisé. L'économie construite dessus ne l'était pas.
Le courriel était fédéré. On a eu Gmail. La messagerie était ouverte. On a eu WhatsApp. L'édition était distribuée. On a eu le fil d'actualité de Facebook. Le web était un bien commun. On a eu des jardins clos.
Le pattern est constant : une technologie ouverte émerge, l'adoption passe à l'échelle, puis les effets de réseau et la concentration du capital tirent tout vers un petit nombre de nœuds centraux. Le temps que le public réalise ce qui s'est passé, les coûts de migration sont trop élevés et le verrouillage est permanent.
L'IA suit exactement la même trajectoire. Et ça va plus vite.
La Centralisation de l'IA S'Accélère
Aujourd'hui, la pile IA se consolide autour d'un nombre remarquablement restreint d'acteurs.
Le calcul : NVIDIA contrôle environ 80 % du marché des GPU pour l'IA. Entraîner des modèles frontières nécessite des grappes qui coûtent des centaines de millions de dollars. Seule une poignée d'organisations — OpenAI, Google, Anthropic, Meta, xAI — peuvent se permettre de construire à cette échelle. La couche de calcul est plus concentrée que la couche cloud ne l'a jamais été.
Les modèles : Les modèles les plus performants sont contrôlés par cinq ou six entreprises, la plupart américaines. Même les modèles « ouverts » comme Llama de Meta viennent avec des restrictions de licence et sont entraînés sur une infrastructure que personne d'autre ne peut répliquer. L'écart entre les modèles frontières et les modèles ouverts, bien qu'il se réduise, détermine encore qui peut construire les systèmes les plus performants.
Les données : Les données d'entraînement sont le nouveau pétrole, et les puits appartiennent aux mêmes plateformes qui contrôlent la distribution. Google a le web. Meta a les graphes sociaux. Amazon a les données commerciales. Les entreprises avec le plus de données construisent les meilleurs modèles, qui attirent le plus d'utilisateurs, qui génèrent le plus de données. Le volant d'inertie tourne déjà.
L'inférence : Quand vous utilisez ChatGPT, Claude ou Gemini, vos prompts — vos questions, vos documents, votre réflexion stratégique — transitent par des serveurs centralisés contrôlés par une seule entreprise. Chaque requête est un point de données. Chaque conversation est un signal d'entraînement. La couche d'inférence est là où vit l'information la plus sensible, et elle est presque entièrement centralisée.
Les agents : La couche émergente d'IA agentique — où les systèmes d'IA prennent des actions autonomes en votre nom — amplifiera cette concentration d'un ordre de grandeur. Un agent IA qui réserve vos vols, gère votre agenda, lit vos courriels et négocie vos contrats a accès à plus de données sensibles que n'importe quelle application dans l'histoire. Si cet agent fonctionne sur une infrastructure centralisée contrôlée par une seule entreprise, l'asymétrie de pouvoir est stupéfiante.
Ce n'est pas un risque futur. C'est l'architecture actuelle. Et elle se durcit chaque mois.
Les Briques Fondamentales Existent Déjà
Voici ce qui rend ce moment différent du début d'internet : nous n'avons pas besoin d'inventer l'alternative. Les technologies nécessaires pour construire une infrastructure d'IA décentralisée et souveraine sont matures, testées et disponibles.
1. Les Réseaux Pair-à-Pair
Le concept est simple : au lieu de faire transiter toutes les données par des serveurs centraux, les nœuds communiquent directement entre eux. Pas de point de contrôle unique, pas de point de défaillance unique, pas d'entité unique qui peut être contrainte de remettre des données.
Le pair-à-pair n'est pas nouveau. BitTorrent a prouvé que la distribution P2P pouvait fonctionner à grande échelle — à son apogée, il représentait plus de 30 % de tout le trafic internet. IPFS (InterPlanetary File System) est devenu une couche de stockage décentralisé de production. libp2p fournit les primitives réseau pour construire des applications P2P.
Appliqué à l'IA, le pair-à-pair signifie : vos données ne quittent jamais votre appareil. Votre modèle tourne localement. Quand vous avez besoin de plus de calcul que votre matériel ne peut fournir, vous puisez dans un réseau de pairs — pas un cloud central. Aucune entreprise ne voit vos prompts. Aucune juridiction ne contrôle votre inférence.
2. La Cryptographie de Bout en Bout
Si le P2P est le système nerveux, la cryptographie est le système immunitaire.
Le chiffrement de bout en bout garantit que seuls l'expéditeur et le destinataire peuvent lire un message — pas l'opérateur réseau, pas le fournisseur d'infrastructure, pas un gouvernement avec un mandat. Signal l'a prouvé à l'échelle grand public. Les mathématiques sont solides. Les implémentations sont éprouvées.
Mais la cryptographie moderne va bien au-delà du simple chiffrement. Les techniques qui comptent pour l'IA décentralisée sont :
Le chiffrement homomorphe — effectuer des calculs sur des données chiffrées sans jamais les déchiffrer. Un nœud dans un réseau distribué peut traiter votre requête sans en voir le contenu. Ce n'est pas théorique. La bibliothèque SEAL de Microsoft et HElib d'IBM implémentent le chiffrement homomorphe pratique. La surcharge de performance est passée de 1 000 000x en 2010 à moins de 100x pour de nombreuses opérations aujourd'hui. Ce n'est pas gratuit, mais c'est faisable.
Les preuves à divulgation nulle (zero-knowledge proofs) — prouver qu'un calcul a été effectué correctement sans révéler les données sous-jacentes. Un modèle peut prouver qu'il vous a donné la bonne réponse sans exposer ce que vous avez demandé. Les preuves ZK alimentent des milliards de dollars en transactions blockchain quotidiennement. L'infrastructure cryptographique est de qualité production.
Le calcul multi-parties sécurisé (MPC) — plusieurs parties calculent conjointement une fonction sur leurs entrées tout en gardant ces entrées privées. Aucune partie ne voit les données complètes. Appliqué à l'IA, le MPC permet à plusieurs organisations d'entraîner un modèle ensemble sans qu'aucune d'entre elles n'expose ses données propriétaires aux autres.
L'apprentissage fédéré — entraîner un modèle à travers plusieurs appareils décentralisés détenant des échantillons de données locaux, sans échanger les données elles-mêmes. Google l'utilise en production pour la prédiction de clavier sur Android. Apple l'utilise pour les améliorations de Siri. La technique fonctionne. La question est de savoir si elle sera appliquée au-delà des jardins clos des entreprises qui l'ont inventée.
Ce ne sont pas des articles de recherche. Ce sont des systèmes déployés. La boîte à outils cryptographique pour le calcul privé, vérifiable et décentralisé existe en ce moment.
3. Le Calcul Distribué
L'argument de centralisation de l'IA revient toujours au calcul : « Vous avez besoin de grappes GPU massives pour faire tourner ces modèles. Seules les grandes entreprises peuvent se le permettre. » C'était vrai en 2023. Ça le devient de moins en moins chaque trimestre.
L'efficacité des modèles explose. Les techniques de quantification (GPTQ, AWQ, GGUF) ont compressé les modèles de 16 bits à 4 bits et même 2 bits avec une perte de qualité minimale. Un modèle qui nécessitait un A100 de 80 Go il y a deux ans fonctionne maintenant sur un portable avec 16 Go de RAM. Llama 3 70B tourne sur du matériel grand public. Les modèles de Mistral sont conçus pour l'efficacité dès le départ.
L'inférence en périphérie est réelle. Les puces M d'Apple, les NPU de Qualcomm et Intel Meteor Lake incluent tous des accélérateurs IA dédiés. Le téléphone dans votre poche a plus de capacité d'inférence IA qu'une baie de serveurs il y a cinq ans. Le calcul est déjà distribué — il est sur 4 milliards de smartphones et un milliard de portables.
L'entraînement distribué mûrit. Des projets comme Hivemind et Petals permettent l'entraînement et l'inférence collaboratifs à travers du matériel grand public géographiquement distribué. La performance n'est pas encore compétitive avec les grappes centralisées pour l'entraînement frontière, mais pour le fine-tuning et l'inférence de modèles existants, ça fonctionne aujourd'hui.
Les marchés de calcul coordonnés par blockchain émergent. Des réseaux comme Akash, Render et io.net permettent à quiconque de contribuer de la capacité GPU et d'être rémunéré. Le problème de coordination — faire correspondre l'offre et la demande de calcul dans un environnement sans confiance — est résolu avec les mêmes mécanismes qui alimentent la finance décentralisée.
La centralisation du calcul n'est pas une loi de la physique. C'est une conséquence de l'économie et des coûts de coordination. Les deux changent.
4. Les Modèles à Poids Ouverts
C'est la couche qui rend tout le reste possible.
Un modèle fermé — ChatGPT, Claude, Gemini — est une boîte noire. Vous envoyez des données, vous recevez des résultats, et vous n'avez aucune visibilité sur ce qui se passe entre les deux. Vous ne pouvez pas le faire tourner sur votre propre matériel. Vous ne pouvez pas vérifier ce qu'il fait de vos données. Vous ne pouvez pas modifier son comportement. Vous êtes locataire, pas propriétaire.
Les modèles à poids ouverts changent l'équation entièrement. Quand Meta a publié Llama, quand Mistral a publié ses modèles, quand la communauté open source a construit Stable Diffusion — ils ont donné à tout le monde la capacité de faire tourner une IA de pointe selon leurs propres conditions.
Ce que les modèles ouverts permettent :
- L'inférence locale — faire tourner le modèle sur votre matériel. Vos données ne quittent jamais vos locaux. Pas d'appels API, pas de serveurs tiers, pas de juridiction étrangère.
- Le fine-tuning — adapter le modèle à votre domaine, votre langue, vos exigences réglementaires. Un cabinet d'avocats québécois peut fine-tuner un modèle sur le droit civil québécois sans envoyer un seul document à San Francisco.
- L'auditabilité — inspecter les poids, l'architecture et la méthodologie d'entraînement du modèle. Vérifier qu'il fait ce qu'il prétend. Identifier les biais. Tester les cas limites.
- La permanence — un modèle ouvert ne peut pas être discontinué, retarifé ou modifié sans votre consentement. Pas de verrouillage fournisseur. Pas de changements soudains de conditions d'utilisation. Pas d'avis de dépréciation d'API.
L'écart entre modèles ouverts et fermés se réduit. Llama 3.1 405B rivalise avec GPT-4 sur de nombreux benchmarks. Mistral Large est compétitif avec Claude. DeepSeek et Qwen progressent rapidement. L'idée que vous avez besoin d'un modèle fermé et centralisé pour un travail sérieux devient de moins en moins vraie à chaque cycle de publication.
La Pile : Comment Tout S'Assemble
Ces quatre couches — réseau P2P, cryptographie, calcul distribué et modèles ouverts — ne sont pas des outils isolés. Elles se composent en une architecture alternative complète pour l'IA.
Couche 4 : MODÈLES OUVERTS
Tourner localement, fine-tuner pour votre domaine, auditer les poids
↓
Couche 3 : CALCUL DISTRIBUÉ
Puiser dans un réseau de pairs pour le débordement, payer par cycle
↓
Couche 2 : CRYPTOGRAPHIE
Chiffrement homomorphe, preuves ZK, MPC — calculer sur des données invisibles
↓
Couche 1 : RÉSEAU PAIR-À-PAIR
Pas de serveur central, pas de juridiction unique, pas de point de contrainte unique
Une entreprise fonctionnant sur cette pile ressemblerait à ceci :
- Votre agent IA fait tourner un modèle à poids ouverts localement sur votre matériel.
- Quand il a besoin de plus de calcul que votre machine ne peut fournir, il distribue la charge de travail à travers un réseau P2P de nœuds participants.
- Vos données sont chiffrées de bout en bout. Les nœuds qui traitent vos requêtes ne voient jamais le contenu. Les preuves à divulgation nulle vérifient que le calcul a été fait correctement.
- Aucune entreprise, aucun gouvernement, aucune juridiction ne contrôle une partie du pipeline.
Ce n'est pas de la science-fiction. Chaque composant existe aujourd'hui. Le travail d'intégration est là où réside le défi — et c'est un défi d'ingénierie, pas un défi théorique.
La Fenêtre Se Referme
Voici pourquoi l'urgence compte.
La centralisation suit une loi de puissance. Une fois qu'une plateforme atteint la masse critique, les coûts de migration rendent la transition prohibitivement coûteuse. Demandez à n'importe quelle entreprise qui a essayé de quitter Oracle. Demandez à n'importe quel consommateur qui a essayé de quitter l'écosystème Apple. Demandez à n'importe quel gouvernement qui a essayé d'arrêter d'utiliser Microsoft 365.
La centralisation de l'IA approche ce point d'inflexion. Si OpenAI, Google et Anthropic capturent la majorité des workflows d'IA d'entreprise dans les deux prochaines années, les coûts de migration seront énormes. Vos agents seront construits sur leurs API. Vos données seront dans leurs journaux d'inférence. Vos workflows seront conçus autour de leurs capacités. Migrer vers une alternative décentralisée sera des ordres de grandeur plus difficile qu'en adopter une dès le départ.
L'écosystème crypto et Web3 a appris cette leçon à la dure. Malgré la construction de protocoles véritablement décentralisés, l'adoption a traîné parce que les alternatives centralisées (Coinbase, Binance) offraient une meilleure UX et un onboarding plus rapide. Le temps que les échanges décentralisés mûrissent, la plupart des utilisateurs étaient déjà verrouillés dans des plateformes centralisées.
La même dynamique se joue avec l'IA. ChatGPT a 200 millions d'utilisateurs actifs hebdomadaires. Claude est intégré dans les workflows d'entreprise. Gemini est intégré dans toute la suite de produits Google. Chaque semaine qui passe sans alternative décentralisée viable est une semaine où le verrouillage s'approfondit.
Ce Qui Doit Se Passer
La technologie existe. Le défi est la coordination, l'investissement et la volonté politique.
Les gouvernements doivent financer une infrastructure IA décentralisée, pas des nuages souverains. Les 1,4 milliard $ en contrats de souveraineté du Canada auraient un impact bien plus grand s'ils étaient dirigés vers le développement de modèles ouverts, les réseaux de calcul distribué et la recherche en IA préservant la vie privée plutôt que vers la construction de centres de données gouvernementaux qui tourneront sur des logiciels américains de toute façon.
Les entreprises doivent adopter les modèles ouverts maintenant, pendant que les coûts de migration sont bas. Chaque entreprise qui fait tourner un workflow IA en production sur une API fermée devrait mener une évaluation parallèle sur un modèle ouvert. Pas comme une expérience. Comme une couverture contre le verrouillage.
La communauté open source doit résoudre le problème d'UX. Faire tourner un modèle ouvert localement est encore plus difficile que de s'inscrire à ChatGPT. L'écart se réduit (Ollama, LM Studio et Jan ont fait d'énormes progrès), mais « installer Docker, télécharger un modèle de 40 Go, configurer vos pilotes GPU » ne peut pas rivaliser avec « ouvrir un onglet de navigateur ». Celui qui résout le dernier kilomètre de l'UX pour l'IA décentralisée gagne.
Le calcul préservant la vie privée a besoin de déploiements réels, pas seulement d'articles. Le chiffrement homomorphe, l'apprentissage fédéré et le calcul multi-parties sécurisé sont assez matures pour une utilisation en production dans des domaines spécifiques. La santé, le juridique, les services financiers — ces industries ont à la fois la motivation réglementaire et le budget pour être pionnières de l'inférence IA privée. Quelqu'un doit y aller en premier à grande échelle.
Les réseaux de calcul distribué doivent prouver leur fiabilité. La technologie fonctionne. La question est de savoir si un réseau de pairs peut égaler le temps de disponibilité, la latence et la constance que les entreprises attendent d'AWS. C'est un problème soluble, mais il nécessite un investissement dans les protocoles de coordination, les garanties de qualité de service et la conception d'incitations économiques.
Les Enjeux
Nous ne débattons pas de préférences technologiques. Nous débattons de pouvoir.
Quiconque contrôle la couche d'inférence IA contrôle le système de traitement de l'information le plus puissant de l'histoire humaine. Si ce contrôle se concentre dans cinq entreprises, toutes basées dans un seul pays, toutes soumises à l'autorité juridique d'un seul gouvernement — les implications pour chaque autre nation, chaque autre économie, chaque autre démocratie sont profondes.
L'internet original était censé distribuer le pouvoir. Au lieu de ça, il l'a concentré. Nous avons eu deux décennies de protocoles ouverts, suivies d'une décennie de consolidation des plateformes qui a défait la majeure partie de l'architecture distribuée sur laquelle l'internet a été construit.
L'IA compresse cette ligne temporelle. La consolidation qui a pris 20 ans à l'internet se produit en 5 ans pour l'IA. La fenêtre pour construire des alternatives n'est pas une décennie. C'est quelques années.
Les outils existent. Les réseaux pair-à-pair, éprouvés par deux décennies de BitTorrent et IPFS. La cryptographie, prouvée par des milliards en transactions blockchain quotidiennes. Le calcul distribué, rendu faisable par les puces IA dans chaque téléphone et portable. Les modèles ouverts, compétitifs avec les alternatives fermées et s'améliorant chaque trimestre.
La question n'est pas de savoir si l'IA décentralisée est possible. C'est de savoir si nous avons la volonté collective de la construire avant que l'alternative centralisée ne devienne permanente.
Nous avons tous les outils nécessaires. Nous avons toutes les leçons de toutes les erreurs commises pendant la première ère d'internet. La seule chose que nous ne pouvons pas nous permettre de manquer, c'est le sentiment d'urgence.
La fenêtre est ouverte. Elle ne le restera pas longtemps.
HUBBVEE aide les entreprises à naviguer l'adoption de l'IA avec lucidité — en équilibrant capacité et souveraineté, vitesse et indépendance stratégique. Parlons-en.