
Mistral AI, Scaleway et OVHcloud : le cloud souverain français face aux hyperscalers en 2026
Le 30 mars 2026, Mistral AI a bouclé un financement par dette de 830 millions de dollars auprès d’un consortium de sept banques pour construire son propre datacenter à Bruyères-le-Châtel. Ce n’est plus une startup qui loue des GPU chez les autres : c’est un bâtisseur d’infrastructure souveraine. En parallèle, Scaleway (groupe Iliad) fait tourner les modèles de Mistral et Hugging Face sur son SuperPod, tandis qu’OVHcloud vient de racheter Dragon LLM pour créer son propre laboratoire d’IA. L’écosystème cloud souverain français n’a jamais été aussi ambitieux. Mais peut-il réellement rivaliser avec AWS, Azure et Google Cloud pour les workloads IA ? Ce comparatif détaille les forces, les limites et les cas d’usage de chaque acteur.
L’état des forces du cloud IA souverain français en mars 2026
L’écosystème cloud souverain français pour l’IA se structure autour de trois acteurs aux profils complémentaires. Comprendre leurs forces respectives permet de choisir la bonne infrastructure selon ses besoins en calcul, conformité et budget.
Mistral AI est passé en moins de trois ans du statut de pépite parisienne à celui de bâtisseur d’infrastructure. Avec 2,9 milliards de dollars levés au total (dont 830 millions en dette en mars 2026), l’entreprise est le constructeur de LLM le mieux financé d’Europe — même si ce montant reste modeste face aux 180 milliards d’OpenAI et aux 59 milliards d’Anthropic. Mistral ne se contente plus de développer des modèles : il construit les datacenters pour les entraîner et les servir.
Scaleway, filiale cloud du groupe Iliad (Xavier Niel), est le partenaire historique de l’IA française. Son SuperPod NVIDIA DGX (1 016 GPU H100) a permis à Mistral d’entraîner Mixtral, à Kyutai de développer Moshi et à Hugging Face de benchmarker ses modèles. Avec un PUE de 1,16 (contre 1,55 en moyenne dans l’industrie), Scaleway combine performance et efficacité énergétique dans un cadre juridique exclusivement européen.
OVHcloud, vétéran européen du cloud avec plus de 20 ans d’expertise et 37 datacenters sur 4 continents, accélère sa stratégie IA. Le rachat de Dragon LLM le 25 mars 2026 et la création d’un laboratoire dédié au fine-tuning de LLM souverains marquent un tournant : OVHcloud ne veut plus seulement héberger l’IA des autres, mais proposer des modèles adaptés aux secteurs régulés. Les trois acteurs partagent une vision commune : construire une infrastructure IA souveraine en France capable de répondre aux exigences réglementaires européennes.
Mistral AI — l’annonce du 30 mars qui change la donne
La levée de dette de 830 millions de dollars annoncée le 30 mars 2026 représente un tournant stratégique pour Mistral AI et pour l’ensemble de l’écosystème IA européen. Pour la première fois, un constructeur européen de LLM finance sa propre infrastructure par dette bancaire plutôt que par du capital-risque.
830 M$ de dette, 13 800 GPU GB300, datacenter Bruyères-le-Châtel
Le financement, arrangé par un consortium de sept banques incluant BNP Paribas, Crédit Agricole CIB, HSBC, MUFG, Bpifrance, La Banque Postale et Natixis, servira à équiper un datacenter à Bruyères-le-Châtel, dans l’Essonne. L’installation reposera sur 13 800 GPU NVIDIA GB300 (architecture Grace Blackwell) pour une capacité de 44 MW. Le datacenter sera opéré par Eclairion, jeune acteur français spécialisé dans les datacenters modulaires à ultra-haute densité, avec Fluidstack comme intégrateur. La mise en service est prévue pour le Q2 2026.
Le choix de la dette n’est pas anodin : il signifie que les grandes institutions financières traitent désormais l’infrastructure IA comme une infrastructure critique, au même titre que l’énergie ou les télécoms. Pour un ratio dette-sur-valorisation d’environ 6 % (sur une valorisation de 13,8 milliards de dollars lors de la série C de septembre 2025), l’opération reste dans les normes pour une infrastructure physique génératrice de revenus récurrents.
200 MW en Europe d’ici 2027 : le pari souverain
Mistral ne s’arrête pas à Bruyères-le-Châtel. En février 2026, l’entreprise a annoncé un plan de 1,2 milliard d’euros pour construire des datacenters en Suède, ajoutant 23 MW de capacité supplémentaire. L’objectif global : 200 MW de capacité de calcul à travers l’Europe d’ici fin 2027. En mars, la joint-venture avec MGX, Bpifrance et NVIDIA pour le Campus IA de 1,4 GW près de Paris a ajouté une dimension encore plus ambitieuse au projet. Mistral a également acquis Koyeb, un fournisseur de cloud serverless, pour muscler sa capacité opérationnelle de déploiement.
L’argument souverain est central. Pour les administrations publiques, les banques et les entreprises des secteurs régulés, héberger ses modèles IA sur un cluster situé en Essonne, opéré par une entité de droit français, change fondamentalement l’équation de conformité face au RGPD, au Cloud Act américain et à l’AI Act européen. C’est un avantage que les pépites IA françaises exploitent déjà activement.
Scaleway — le cloud IA français discret mais stratégique
Scaleway occupe une position unique dans l’écosystème : c’est le fournisseur de GPU qui a rendu possible l’émergence de Mistral AI, Kyutai et d’une partie de l’écosystème Hugging Face en Europe. Sa discrétion médiatique ne doit pas masquer son importance stratégique.
SuperPod, PUE 1,16 et zéro législation extraterritoriale
Le SuperPod NVIDIA DGX de Scaleway, baptisé Nabuchodonosor, comprend 127 systèmes DGX H100 (1 016 GPU H100) interconnectés par InfiniBand NDR à 400 Gb/s. Il est hébergé dans le datacenter DC5 en région parisienne, alimenté à 100 % par des énergies renouvelables (éolien et hydraulique certifiés GO) et refroidi par free cooling et adiabatic cooling, sans climatisation traditionnelle. Le PUE de 1,16 en fait l’un des datacenters les plus efficaces d’Europe.
L’avantage juridique est décisif : Scaleway stocke toutes ses données en Europe et n’est soumis à aucune législation extraterritoriale. Pour les clients soumis au RGPD et aux futures réglementations de l’AI Act, cette garantie est un critère de sélection de premier ordre. Scaleway propose des GPU H100 PCIe, H200, L40S, L4 et GH200 en instances cloud, plus des clusters dédiés pour l’entraînement multi-nœuds. Le partenariat avec NVIDIA inclut l’accès au programme DGX Cloud Lepton et NVIDIA Inception pour les startups européennes.
Le partenariat historique avec Mistral et ses limites
Mistral avait initialement prévu de s’approvisionner en 18 000 GPU NVIDIA GB200 auprès de Scaleway pour son datacenter. Mais l’entreprise a finalement opté pour la génération plus récente GB300 et un opérateur différent (Eclairion). Ce pivot illustre une réalité : Scaleway, malgré son excellence technique, fait face à des contraintes de capacité pour les projets de l’échelle que Mistral vise désormais. L’avenir de Scaleway passe par l’expansion de ses capacités GPU et par des partenariats avec les nouvelles générations de puces, notamment AMD Instinct MI300 qui commence à apparaître dans son catalogue.
OVHcloud — le poids lourd industriel face au virage IA
OVHcloud représente une proposition de valeur différente de Mistral et Scaleway : un modèle industriel intégré verticalement, une présence mondiale avec 37 datacenters, et un positionnement prix agressif qui le distingue des hyperscalers. Mais le virage IA impose une transformation profonde.
L’offre GPU complète et le modèle intégré verticalement
OVHcloud propose la gamme GPU la plus étendue de l’écosystème souverain français : NVIDIA H100, H200, A100, L40S, L4 et bientôt les GPU AMD MI325X. Le H100 PCIe est disponible en configurations 1x, 2x et 4x avec un tarif transparent et sans frais cachés. Le GPU H100 reste la seule carte capable d’inférer des LLM massifs jusqu’à 120 milliards de paramètres en configuration 4x (instance H100-1520). Le L40S offre le meilleur rapport coût-par-token pour les LLM de taille intermédiaire.
Le modèle intégré verticalement — OVHcloud conçoit ses serveurs, construit ses datacenters et orchestre son réseau fibre optique — lui confère un avantage prix structurel. Cependant, ce même modèle ralentit l’adoption des technologies les plus récentes : OVHcloud n’a pas encore la puissance de calcul brute pour entraîner des LLM de classe mondiale, un gap qui devrait se réduire en 2027-2028.
Le rachat de Dragon LLM : la brique manquante
L’acquisition de Dragon LLM le 25 mars 2026 marque un changement de nature pour OVHcloud. Dragon LLM (ex-Lingua Custodia), lauréate du Large AI Grand Challenge de la Commission européenne, conçoit des modèles spécialisés pour les industries régulées. Son modèle phare — un SLM de 3,6 milliards de paramètres capable de fonctionner en local sans GPU — et ses LLM Open Finance co-développés avec l’Agefi illustrent une approche pragmatique de l’IA souveraine. La création du lab AI d’OVHcloud, dédié au training et fine-tuning de LLM souverains, cible directement les secteurs finance, santé et secteur public. Pour les entreprises confrontées à la transformation SaaS face à l’IA, OVHcloud propose une alternative souveraine crédible.
Comparatif : hyperscalers vs cloud souverain français
Le choix entre un cloud souverain français et un hyperscaler américain dépend de critères précis que chaque entreprise doit évaluer selon ses contraintes réglementaires, son budget et ses besoins en performance.
| Critère | Mistral AI | Scaleway | OVHcloud | AWS / Azure / GCP |
|---|---|---|---|---|
| GPU phare | GB300 (13 800) | H100 SXM (1 016) | H100/H200/L40S/MI325X | H200/B200/TPU v6 |
| Souveraineté données | France uniquement | Europe uniquement | 37 DC, 4 continents (choix région) | Mondial (Cloud Act applicable) |
| Conformité RGPD | Native | Native | Native | Par configuration |
| Entraînement LLM | Oui (classe mondiale) | Oui (jusqu’à ~1000 GPU) | Fine-tuning / modèles moyens | Oui (échelle illimitée) |
| Inférence | API Le Chat + custom | Instances + endpoints | Instances + AI Solutions | SageMaker / Vertex / Bedrock |
| Modèle économique | API + infra dédiée | Pay-as-you-go | Pay-as-you-go + bare metal | Pay-as-you-go (coûts cachés) |
| Cas d’usage idéal | Secteurs régulés, IA souveraine | Startups IA, R&D, pré-entraînement | PME/ETI, inférence, fine-tuning | Scale mondial, écosystème mature |
| Besoin | Recommandation | Pourquoi |
|---|---|---|
| Entraîner un LLM >70B paramètres | Mistral (infra propre) ou hyperscaler | Seuls à disposer de clusters >10 000 GPU |
| Fine-tuner un modèle pour secteur régulé | OVHcloud + Dragon LLM | Expertise fine-tuning souverain, RGPD natif |
| R&D IA startup européenne | Scaleway | Programme Inception, SuperPod, PUE 1,16 |
| Inférence à grande échelle, multi-région | Hyperscaler + cloud souverain en hybride | Scalabilité mondiale + conformité locale |
| PME avec budget limité | OVHcloud (L40S/L4) | Meilleur rapport coût/token, transparence prix |
Pour comparer en détail les performances des modèles IA accessibles via ces infrastructures, consultez notre benchmark des chatbots IA et API en mars 2026 et notre analyse des coûts d’API LLM en 2026.
Le vrai enjeu : indépendance ou interdépendance ?
Derrière la promesse de souveraineté, la réalité du marché impose une lecture plus nuancée. L’écosystème cloud souverain français progresse rapidement, mais il évolue dans un contexte de dépendances structurelles qu’il faut comprendre pour prendre des décisions éclairées.
Le paradoxe NVIDIA : tous dépendent des mêmes puces américaines
Mistral, Scaleway et OVHcloud utilisent tous des GPU NVIDIA. Les 13 800 GB300 de Mistral, les 1 016 H100 de Scaleway et les H100/H200 d’OVHcloud sont conçus en Californie et fabriqués par TSMC à Taïwan. La souveraineté logicielle et juridique est réelle (données en France, droit français, RGPD natif), mais la souveraineté matérielle reste une dépendance structurelle que ni la France ni l’Europe ne peuvent résoudre à court terme. Le programme EuroHPC et SiPearl travaillent sur des processeurs européens, mais les résultats ne seront pas opérationnels avant 2028-2030 pour les workloads IA les plus exigeants.
Mistral utilise encore les hyperscalers pour les pics de charge
Jusqu’à cette levée de dette, Mistral AI opérait exclusivement via des fournisseurs cloud tiers, notamment Microsoft Azure, Google Cloud et CoreWeave. Même avec son datacenter propre, l’entreprise continuera probablement à utiliser les hyperscalers pour absorber les pics de demande. Cette approche hybride — infrastructure souveraine pour le cœur, hyperscalers pour l’élasticité — est pragmatique et reflète la réalité du marché : aucun acteur européen ne peut encore offrir l’échelle d’AWS ou Azure.
L’AI Act comme avantage compétitif européen
L’entrée en vigueur progressive de l’AI Act européen en 2026 crée un cadre réglementaire qui avantage structurellement les acteurs souverains. Les entreprises déployant des systèmes IA à haut risque (santé, finance, justice, RH) doivent garantir la traçabilité, la transparence et la responsabilité de leurs modèles. Héberger ces workloads chez un fournisseur souverain simplifie considérablement la conformité. Pour les entreprises qui veulent comprendre comment déployer un agent IA en entreprise avec un budget et un ROI maîtrisés, le choix de l’infrastructure souveraine est un facteur décisif de conformité.
Questions fréquentes sur le cloud souverain IA français
Mistral AI est-il vraiment souverain s’il utilise des GPU NVIDIA ?
Mistral AI est souverain sur le plan juridique et opérationnel : ses données sont hébergées en France, l’entité est de droit français, et les modèles sont développés en Europe. La dépendance matérielle aux GPU NVIDIA fabriqués par TSMC à Taïwan est réelle, mais elle est partagée par tous les acteurs mondiaux de l’IA, y compris les hyperscalers américains. La souveraineté totale (hardware + logiciel + juridique) n’existe pour aucun acteur au monde en 2026.
Scaleway peut-il remplacer AWS pour des workloads IA ?
Pour des workloads IA de taille moyenne (entraînement jusqu’à environ 1 000 GPU, inférence, fine-tuning), Scaleway offre une alternative crédible avec un PUE de 1,16, une conformité RGPD native et aucune législation extraterritoriale. Pour des déploiements à très grande échelle nécessitant des dizaines de milliers de GPU ou une présence multi-région mondiale, AWS conserve un avantage d’échelle que Scaleway ne peut pas encore égaler.
Combien coûte un GPU H100 chez OVHcloud vs AWS ?
OVHcloud propose une tarification transparente sans frais cachés pour ses GPU H100 en instances cloud public. Le modèle pay-as-you-go permet de payer uniquement les ressources utilisées. OVHcloud se positionne généralement 20 à 40 % moins cher que les hyperscalers sur des configurations équivalentes, grâce à son modèle intégré verticalement. Le L40S offre le meilleur rapport coût-par-token pour les LLM intermédiaires.
Quel est le datacenter de Mistral AI en France ?
Le datacenter de Mistral AI est situé à Bruyères-le-Châtel, dans l’Essonne, à environ 30 kilomètres au sud de Paris. Il est opéré par Eclairion, un acteur français spécialisé dans les datacenters modulaires à ultra-haute densité. Le site sera équipé de 13 800 GPU NVIDIA GB300 pour une capacité de 44 MW, avec une mise en service prévue pour le deuxième trimestre 2026.
Pourquoi Mistral a levé 830 millions de dollars de dette ?
Le financement par dette (plutôt que par capital-risque) indique que les institutions financières considèrent l’infrastructure IA de Mistral comme une infrastructure critique génératrice de revenus récurrents. Les 830 millions de dollars financent l’achat de 13 800 GPU NVIDIA GB300 et l’opération du datacenter de Bruyères-le-Châtel. Le consortium de sept banques (BNP Paribas, Crédit Agricole, HSBC, MUFG, Bpifrance, La Banque Postale, Natixis) valide la crédibilité du modèle économique.
Scaleway héberge-t-il les modèles Mistral ?
Scaleway a été le partenaire historique de Mistral pour l’entraînement de modèles comme Mixtral, via son SuperPod NVIDIA DGX. Mistral avait initialement prévu 18 000 GPU GB200 chez Scaleway, mais a finalement opté pour les GB300 plus récents dans un datacenter opéré par Eclairion. Les deux entreprises maintiennent des relations, mais Mistral diversifie ses sources d’infrastructure.
OVHcloud peut-il entraîner un LLM de classe mondiale ?
Pas encore à l’échelle des modèles frontier (>100 milliards de paramètres). OVHcloud est optimisé pour le fine-tuning, l’inférence et l’entraînement de modèles de taille moyenne. Le rachat de Dragon LLM renforce cette position avec des modèles spécialisés pour les secteurs régulés. Le gap en puissance de calcul brute par rapport aux hyperscalers devrait se réduire entre 2027 et 2028 avec l’arrivée de nouvelles générations de GPU.
Qu’est-ce que le Campus IA Paris de 1,4 GW ?
Le Campus IA Paris est une joint-venture entre MGX (fonds émirati), Bpifrance, Mistral AI et NVIDIA. Situé en Île-de-France, il atteindra une capacité de 1,4 GW. La première tranche représente 8,5 milliards d’euros d’investissement. Construction prévue au second semestre 2026, mise en service en 2028. Il sera le plus grand campus IA d’Europe.
Un cloud souverain est-il conforme RGPD par défaut ?
Pas automatiquement. Un cloud est « souverain » au sens RGPD s’il héberge les données dans l’Espace économique européen et n’est soumis à aucune législation extraterritoriale (comme le Cloud Act américain). Scaleway et Mistral AI remplissent ces critères nativement. OVHcloud le fait pour ses régions européennes. Les certifications comme SecNumCloud (ANSSI) ou HDS ajoutent des garanties supplémentaires pour les secteurs les plus sensibles.
Comment choisir entre un cloud souverain et un hyperscaler pour l’IA en 2026 ?
Le choix dépend de trois facteurs : les contraintes réglementaires (RGPD, AI Act, secteurs régulés favorisent le souverain), l’échelle des workloads (les hyperscalers dominent pour les déploiements mondiaux massifs) et le budget (OVHcloud est généralement 20 à 40 % moins cher). L’approche hybride — infrastructure souveraine pour le cœur sensible, hyperscaler pour l’élasticité — est souvent la stratégie la plus pragmatique.
Diag IA gratuit
Nous contacter
Parler à Eric



