Construisez des pipelines de données robustes, scalables et prêts pour la production. Devenez un ingénieur data capable de concevoir, déployer et industrialiser des architectures modernes cloud & Big Data.
DeepSeek, le chatbot chinois rival de ChatGPT, est désormais dans le collimateur des autorités européennes. Contrairement à ChatGPT, DeepSeek se distingue par une intégration avancée des technologies de génération multimodale, une consommation de ressources réduite et un coût inférieur, ce qui le rend particulièrement attractif pour les entreprises cherchant une alternative économique. Son interdiction en Italie a marqué le début d’un contrôle accru de la part des instances de protection des données en France et en Irlande. Le succès fulgurant de DeepSeek, basé à Hangzhou, et sa capacité à rivaliser avec les modèles américains ont attiré l’attention non seulement des géants du secteur, comme Meta, mais aussi des régulateurs soucieux de la conformité avec le Règlement général sur la protection des données (RGPD).
L’Italie prend des mesures radicales
L’autorité italienne de protection des données (GPDP) a rapidement réagi en bloquant temporairement l’accès à DeepSeek. Cette interdiction fait suite à l’incapacité des développeurs chinois à répondre de manière satisfaisante aux questions relatives à la collecte et au stockage des données des utilisateurs italiens. Cette décision rappelle celle prise contre OpenAI en mars 2023, lorsque ChatGPT avait également été suspendu en Italie pour des violations du RGPD. OpenAI avait par la suite ajusté ses pratiques, mais l’enquête s’était poursuivie, aboutissant en décembre 2024 à une amende de 15 millions d’euros.
La France et l’Irlande sur leurs gardes
En parallèle, la Commission nationale de l’informatique et des libertés (CNIL) en France a entamé un examen approfondi de DeepSeek afin d’évaluer ses pratiques en matière de protection des données personnelles. En Irlande, où sont établies de nombreuses entreprises technologiques, l’Autorité de protection des données (DPC) a également lancé des investigations pour comprendre comment sont traitées les informations personnelles des citoyens irlandais.
Les inquiétudes concernent notamment le stockage des données en Chine et la possibilité qu’elles soient partagées avec les autorités locales, conformément à la loi chinoise sur la cybersécurité, qui oblige les entreprises à fournir certaines informations aux autorités sur demande. DeepSeek collecte des informations sensibles, telles que les numéros de téléphone des utilisateurs, les modèles d’appareils et même leurs habitudes de frappe. Cette opacité alimente les préoccupations sur une éventuelle exploitation contraire aux normes européennes.
📢 Décryptez les nouvelles règles du jeu pour l’IA, le RGPD et la transparence des données dans notre article dédié !
L’Union européenne renforce ses restrictions sur l’IA
En parallèle des enquêtes sur DeepSeek, l’Union européenne a renforcé son cadre législatif sur l’intelligence artificielle en interdisant huit types d’usages jugés trop dangereux. Ces mesures inédites, précisées le 5 février 2025 par la Commission européenne, s’inscrivent dans le cadre du règlement européen sur l’IA adopté en 2024.
Une régulation stricte des systèmes à haut risque
L’UE classe les systèmes d’IA en plusieurs catégories de risque, en fonction de leur impact potentiel sur la sécurité et les droits fondamentaux. Cette classification repose sur des critères tels que le degré d’autonomie du système, son domaine d’application (santé, éducation, maintien de l’ordre, etc.) et le niveau de contrôle humain requis. Les systèmes jugés sûrs ne sont pas soumis à des restrictions, tandis que les applications à haut risque (éducation, ressources humaines, infrastructures critiques, maintien de l’ordre) devront se conformer à des exigences renforcées d’ici 2027. Toutefois, certains usages sont purement et simplement interdits.
Huit usages interdits en Europe
Dans le cadre de cette nouvelle législation, l'UE a identifié plusieurs pratiques d’IA présentant des risques majeurs pour les droits fondamentaux et la sécurité des citoyens. Ces usages sont jugés particulièrement problématiques en raison de leur potentiel d’abus et d’atteinte à la vie privée.
Identification en temps réel de personnes : Les technologies de reconnaissance faciale en temps réel dans les espaces publics pour identifier des individus sont interdites, sauf exceptions pour la lutte contre le terrorisme.
Notation sociale basée sur des données personnelles : L’UE interdit tout système d’IA classant les individus selon leur probabilité de fraude ou de criminalité en utilisant des données personnelles non pertinentes.
Évaluation du risque criminel par des données biométriques : Les forces de l’ordre ne peuvent utiliser une IA pour prédire des comportements criminels sur la seule base de caractéristiques personnelles.
Reconnaissance faciale à partir d’images en ligne : L’extraction de photos sur internet pour constituer des bases de données de reconnaissance faciale est interdite.
Identification des émotions au travail et à l’école : Aucun système ne pourra détecter et analyser les émotions des employés ou des étudiants via webcams ou reconnaissance vocale.
Manipulation du comportement des individus : L’IA ne peut être utilisée pour tromper ou influencer les utilisateurs à réaliser des actions sans leur consentement éclairé.
Exploitation des vulnérabilités des enfants et des personnes à mobilités réduites : Les jouets interactifs utilisant l’IA ne doivent pas inciter les enfants à des comportements dangereux.
Détection des opinions politiques ou de l’orientation sexuelle : L’IA ne peut être utilisée pour deviner ces informations sur la base d’images ou d’autres données personnelles.
Une Europe en quête d’équilibre entre innovation et protection
Avec ces nouvelles régulations, l’Europe se positionne en pionnière mondiale en matière d’encadrement de l’intelligence artificielle. La mise en application de ces interdictions vise à protéger les citoyens tout en assurant une innovation responsable. Des entreprises comme DeepSeek, qui opèrent à la frontière de la légalité, sont donc sous surveillance accrue. Les prochains mois seront décisifs pour observer l’impact de ces décisions sur l’écosystème de l’IA en Europe et sur la manière dont les entreprises non européennes devront adapter leurs modèles pour continuer à opérer sur le marché européen. Ces régulations pourraient pousser certaines entreprises à renforcer la transparence de leurs pratiques, à relocaliser leurs infrastructures ou à ajuster leurs modèles économiques afin de se conformer aux exigences européennes.
Avec le renforcement des règles en Europe, comprendre l’impact des régulations sur l’IA devient essentiel pour les professionnels du secteur. Ne subissez pas ces changements, maîtrisez-les !
Partager avec
💙 Merci d'avoir parcouru l'article jusqu'à la fin !
Aicha Bouchti - Ingénieur de formation
Ingénieur de formation avec plus de 6 ans d'expérience dans le développement back-end et le data engineering. Expert dans l’industrialisation des projets data dans le cloud.