
LLMs chinois et sécurité des données : Cloud Act, RGPD et souveraineté numérique en 2026
L’affaire DeepSeek a mis en lumière un paradoxe fondamental : les mêmes modèles IA chinois qui révolutionnent le marché par leur performance et leur ouverture posent des questions majeures de sécurité des données. L’Italie a interdit DeepSeek pour non-conformité au RGPD. La Corée du Sud a suspendu l’application. La CNIL française a ouvert une analyse. Mais ces interdictions concernent les API cloud, pas les modèles open source déployés en local. La distinction est cruciale : un DeepSeek R1 exécuté via Ollama sur votre serveur n’envoie aucune donnée à aucun serveur. Ce guide démêle les vrais risques des faux, et fournit un cadre actionnable pour les DSI, RSSI et DPO.
LLMs chinois : de quoi parle-t-on exactement ?
Avant d’évaluer les risques, il faut clarifier la terminologie. Un « LLM chinois » peut désigner deux choses très différentes : une API cloud gérée par une entreprise chinoise, ou un modèle open source téléchargeable et exécutable sur n’importe quelle infrastructure.
Les principales familles de modèles chinois en 2026 sont Qwen 3.5 (Alibaba, Apache 2.0), DeepSeek R1 (DeepSeek, MIT), MiMo (Xiaomi, MIT), MiniCPM (OpenBMB/Tsinghua, Apache 2.0) et GLM-5 (Zhipu AI). Ces modèles existent sous deux formes d’accès : l’API cloud (où vos données transitent par les serveurs du fournisseur) et les poids ouverts (open weights) téléchargeables depuis Hugging Face et exécutables en local via Ollama, vLLM ou llama.cpp.
Cette distinction est fondamentale car les régulateurs européens visent les API et applications cloud, pas les poids de modèles. L’Italie n’a pas interdit les fichiers GGUF de DeepSeek — elle a bloqué l’application et le service cloud qui collectent et transfèrent des données vers la Chine. Notre article sur le secret professionnel français face aux IA américaines montre que ce problème de souveraineté des données ne concerne pas que les modèles chinois.
Cloud API vs Open Weights en local : deux réalités de sécurité radicalement différentes
La confusion entre ces deux modes d’utilisation alimente la plupart des malentendus sur les « risques des LLMs chinois ». Il est essentiel de les distinguer clairement.
Ce qui se passe quand vous utilisez l’API DeepSeek
Quand vous utilisez l’API cloud de DeepSeek (api.deepseek.com) ou le chatbot web (chat.deepseek.com), vos prompts et données sont envoyés à des serveurs en Chine. La politique de confidentialité de DeepSeek est explicite : les informations sont stockées sur des « serveurs sécurisés situés en République populaire de Chine ». Ce stockage est soumis à la législation chinoise, qui peut contraindre les entreprises à partager des données avec les autorités locales sur demande. Des analyses ont confirmé que DeepSeek transfère des données vers Volcano Engine (ByteDance) sans mention dans sa politique de confidentialité.
Ce qui se passe quand vous déployez DeepSeek R1 via Ollama
Quand vous exécutez ollama pull deepseek-r1:14b, les poids du modèle sont téléchargés une fois depuis le registre Ollama ou Hugging Face. Ensuite, toute l’inférence se fait 100 % sur votre machine. Aucune connexion aux serveurs de DeepSeek. Aucune télémétrie. Aucun envoi de données. Le risque de sécurité est identique à celui de n’importe quel logiciel open source que vous installez sur votre serveur — ni plus, ni moins.
| Critère | API Cloud chinois | Open Weights en local |
|---|---|---|
| Données quittent votre réseau | ✅ Oui — serveurs en Chine | ❌ Non — inférence 100 % locale |
| Soumis au droit chinois | ✅ Oui | ❌ Non |
| Conforme RGPD | ❌ Transfert hors UE sans garanties | ✅ Données on-premise |
| Télémétrie / collecte | ✅ Collecte prompts, métadonnées | ❌ Aucune connexion sortante |
| Auditable | ❌ Boîte noire | ✅ Code source vérifiable |
Les 5 risques réels (et les faux risques) des LLMs chinois en entreprise
Les risques liés aux LLMs chinois sont souvent mal identifiés. Certains sont réels et nécessitent des mitigations concrètes. D’autres sont des perceptions infondées qui freinent inutilement l’adoption.
| Risque | API Cloud | LLM local | Mitigation |
|---|---|---|---|
| Fuite de données vers serveur tiers | ✅ Élevé | ❌ Inexistant | Déployer en local uniquement |
| Supply chain empoisonnée (backdoor) | ⚠️ Moyen | ⚠️ Moyen | Vérifier checksums, sources officielles Hugging Face |
| Injection de prompt → exfiltration | ⚠️ Moyen | ⚠️ Moyen | LLM Firewall, validation des entrées |
| Non-conformité RGPD | ✅ Élevé (transfert hors UE) | ❌ Conforme (on-premise) | Déployer en local ou cloud souverain |
| Droits d’accès RAG (Vector DB) | ⚠️ Identique | ⚠️ Identique | Héritage ACL, tests de permissions |
Les faux risques qu’il faut déconstruire : « Les modèles chinois espionnent vos données » — faux en local, car aucune connexion réseau n’est établie. « Le code est opaque » — faux, car les modèles sont open source et audités par la communauté mondiale. « Les réponses sont censurées/biaisées » — partiellement vrai pour les API cloud (filtrage politique), mais en local le modèle répond sans filtre supplémentaire. Pour approfondir les vulnérabilités spécifiques aux API IA, consultez notre guide sur les 10 failles critiques OWASP des API IA.
RGPD, AI Act, OWASP : le cadre réglementaire applicable
Trois cadres réglementaires encadrent l’utilisation des LLMs en entreprise en Europe. Leur compréhension est indispensable pour un déploiement conforme.
Le RGPD impose des restrictions strictes sur les transferts de données personnelles hors UE. La Chine ne bénéficie pas d’une décision d’adéquation de la Commission européenne. L’utilisation d’une API cloud chinoise sans clauses contractuelles types constitue une violation. Le déploiement local élimine ce risque car les données ne quittent jamais l’infrastructure de l’entreprise. L’autorité italienne GPDP a invoqué un « risque élevé » pour les données de millions d’utilisateurs et ordonné la restriction immédiate du traitement par DeepSeek. La DPC irlandaise et la CNIL française ont suivi avec leurs propres enquêtes.
L’AI Act européen, dont les premières dispositions sont entrées en application en 2025, impose des obligations de transparence renforcées pour les systèmes d’IA interagissant avec des utilisateurs. Les sanctions peuvent atteindre 35 millions d’euros ou 7 % du chiffre d’affaires mondial pour les infractions les plus graves. Les modèles open source bénéficient d’exemptions partielles, mais les entreprises qui les déploient restent responsables de leur conformité.
L’OWASP Top 10 LLM identifie les vulnérabilités les plus critiques : injection de prompt, empoisonnement des données d’entraînement, divulgation d’informations sensibles, agentivité excessive et fuite du prompt système. Ces risques s’appliquent à tous les LLMs — chinois, américains ou européens — et nécessitent des contre-mesures identiques. L’enjeu pour les entreprises est de documenter ces risques et les mitigations dans leur registre de conformité, comme nous le détaillons dans notre guide sur l’anonymisation des données et les outils souverains.
L’étude Agents of Chaos et pourquoi les garde-fous modèle ne suffisent pas
L’étude « Agents of Chaos », publiée en février 2026 par des chercheurs du MIT, Harvard, Stanford et CMU, a documenté plus de 10 violations majeures en environnement réel. Sa conclusion est sans appel : les agents LLM ne distinguent pas fiablement les utilisateurs autorisés des attaquants.
Les implications pour les entreprises sont considérables. 63 % des organisations ne peuvent pas imposer de limitations d’usage aux agents IA, selon le rapport Kiteworks 2026. Seulement 43 % disposent d’une passerelle centralisée pour les données IA. Les garde-fous intégrés au modèle (system prompts, filtres de contenu) sont contournables par des techniques d’injection de prompt de plus en plus sophistiquées.
Cela signifie que la sécurité ne peut pas reposer uniquement sur le modèle. Elle doit être architecturale : LLM Firewall en amont, validation des entrées et sorties, héritage des ACL pour les bases vectorielles RAG, journalisation de toutes les interactions et tests de pénétration réguliers. Samsung avait déjà interdit ChatGPT en interne après une fuite de code source via les prompts — le risque est identique avec tout LLM cloud, quelle que soit son origine. Pour comprendre comment les agents IA autonomes changent la donne, notre article sur les agents IA autonomes en 2026 explore ces enjeux.
Guide pratique : déployer un LLM chinois de manière sûre et conforme
Voici la checklist en 10 points pour un déploiement sécurisé d’un LLM open source en entreprise, applicable que le modèle soit chinois, américain ou européen.
| N° | Action | Détail |
|---|---|---|
| 1 | Déploiement local uniquement | Aucune API cloud chinoise. Téléchargez les poids, coupez la connexion sortante du serveur d’inférence. |
| 2 | Vérification des checksums | Comparez les hashes SHA256 des fichiers téléchargés avec ceux publiés sur le dépôt Hugging Face officiel. |
| 3 | LLM Firewall | Interceptez et filtrez les prompts et réponses. Bloquez les injections, les exfiltrations et les contenus non autorisés. |
| 4 | Héritage ACL pour RAG | Si le LLM accède à une base documentaire, assurez-vous que les permissions d’accès aux documents sont respectées par utilisateur. |
| 5 | Journalisation complète | Loguez toutes les interactions (prompts, réponses, identité utilisateur) pour audit et conformité. |
| 6 | Registre RGPD | Documentez le traitement IA dans votre registre des activités de traitement. Précisez la base légale, les finalités et les mesures de sécurité. |
| 7 | AIPD si nécessaire | Si le LLM traite des données sensibles à grande échelle, réalisez une Analyse d’Impact sur la Protection des Données. |
| 8 | Tests de pénétration | Testez régulièrement les injections de prompt, les tentatives d’exfiltration et les contournements des garde-fous. |
| 9 | Formation utilisateurs | Sensibilisez les équipes aux risques : ne pas saisir de données personnelles, de secrets commerciaux ou de mots de passe. |
| 10 | Veille réglementaire | Suivez les évolutions de l’AI Act, les décisions CNIL et les mises à jour OWASP LLM. Révisez la conformité trimestriellement. |
Pour les secteurs à obligations renforcées — avocats, santé, défense — le déploiement local est la seule option viable. Le secret professionnel des avocats, par exemple, interdit tout transfert de données client vers un tiers, fût-il un fournisseur cloud. Notre guide sur le secret professionnel des avocats et l’IA détaille les solutions conformes. Pour une création de site web sécurisée dès la conception, ces principes s’intègrent dans l’architecture technique dès le départ.
Questions fréquentes sur la sécurité des LLMs chinois
Les LLMs chinois sont-ils sûrs pour les données de mon entreprise ?
En local via Ollama ou vLLM, oui. Aucune donnée ne quitte votre réseau. Le risque est identique à n’importe quel logiciel open source. En API cloud, non — les données transitent par des serveurs en Chine soumis à la législation chinoise. La distinction entre ces deux modes d’utilisation est absolument fondamentale.
Pourquoi l’Italie a-t-elle interdit DeepSeek ?
L’autorité italienne de protection des données (GPDP) a interdit l’application et le service cloud DeepSeek pour non-conformité au RGPD. Les griefs : stockage des données en Chine, manque de transparence sur la collecte, absence de représentant légal dans l’UE, et réponses jugées « totalement insuffisantes » aux demandes d’information. Cette interdiction ne concerne pas les modèles open source déployés en local.
Le Cloud Act américain pose-t-il les mêmes risques que le droit chinois ?
Oui, dans le principe. Le Cloud Act permet aux autorités américaines d’accéder aux données hébergées par des entreprises américaines, où que soient les serveurs. Le FISA (Foreign Intelligence Surveillance Act) ajoute une couche de surveillance. Les API d’OpenAI et d’Anthropic sont soumises à ces lois, tout comme les API chinoises le sont au droit chinois. Le déploiement local élimine les deux risques.
Comment vérifier qu’un modèle open source n’a pas de backdoor ?
Vérifiez les checksums SHA256 contre les fichiers publiés officiellement sur Hugging Face. Utilisez uniquement des sources officielles (comptes vérifiés des éditeurs). Testez le modèle sur des cas sensibles. La communauté open source audite activement les modèles populaires. Des outils comme Giskard permettent de détecter les comportements anormaux.
L’AI Act européen impose-t-il des obligations spécifiques pour les LLMs chinois ?
L’AI Act ne distingue pas les LLMs par nationalité. Les obligations dépendent du niveau de risque de l’application : transparence, documentation, évaluation des risques. Les modèles open source bénéficient d’exemptions partielles, mais les entreprises qui les déploient restent responsables de la conformité de leur système. Les sanctions peuvent atteindre 35 millions d’euros ou 7 % du chiffre d’affaires.
Que dit l’OWASP sur les vulnérabilités des LLMs ?
L’OWASP Top 10 LLM identifie 10 failles critiques communes à tous les LLMs : injection de prompt, empoisonnement des données, divulgation d’informations sensibles, déni de service, fuite du prompt système, agentivité excessive, entre autres. Ces risques sont indépendants de l’origine du modèle et nécessitent des contre-mesures architecturales (LLM Firewall, validation, journalisation).
Diag IA gratuit
Nous contacter
Parler à Eric



