Conférence Intelligence Artificielle : Zoom sur le RGPD et l’IA Act

Extrait de la Conférence de Marianne Dabbadie SNDGCT Languedoc Roussillon

Marianne Dabbadie, une voix qui rend l’IA intelligible

Quand elle intervient, Marianne Dabbadie ne se limite pas à aligner des chiffres et des définitions : elle raconte, illustre et simplifie des notions complexes autour de l’intelligence artificielle. Chercheuse associée au laboratoire LHUMAIN de l’Université Paul-Valéry à Montpellier et fondatrice d’Évalir à Sarlat, elle accompagne écoles, collectivités et organisations dans leur appropriation de l’IA et du management. Son expertise a récemment conduit la Commission des affaires économiques de l’Assemblée nationale à la solliciter pour ses réflexions sur l’avenir des métiers.

Sa conférence débute par un dialogue de 45 minutes avec Hubert Vialatte, journaliste aux Échos. L’entretien, vivant et ponctué d’exemples concrets, se poursuit ensuite avec les questions du public. Trois fils rouges structurent son intervention : l’usage actuel de l’IA dans les collectivités, son influence sur les pratiques professionnelles, et ses impacts sur l’emploi et les compétences.

L’encadrement légal : protéger sans freiner

Marianne situe d’abord l’IA dans son cadre réglementaire. Le RGPD impose déjà des règles strictes : consentement, transparence, usage limité des données et droit à l’explication. Depuis 2024, une nouvelle étape a été franchie avec l’IA Act, règlement européen qui classe les systèmes en quatre niveaux de risque : inacceptable (interdit), élevé (fortement encadré), limité (information obligatoire) et minimal (contraintes réduites). Certaines pratiques sont bannies : reconnaissance faciale dans l’espace public, notation sociale, surveillance massive en temps réel, analyse des émotions des salariés ou manipulation comportementale. L’objectif : concilier innovation et libertés publiques.

Un calendrier progressif pour l’IA Act

Plutôt qu’une mise en œuvre brutale, le texte prévoit une application échelonnée :

  • Février 2025 : retrait des systèmes jugés inacceptables.

  • Août 2025 : obligation pour les IA génératives de signaler leurs productions, avec éventuellement des filigranes invisibles, et premiers débats sur le droit d’auteur.

  • Août 2026 : obligation de prouver la conformité selon le niveau de risque, sous peine d’amendes pouvant atteindre 7 % du chiffre d’affaires mondial.

  • Août 2027 : application intégrale pour les systèmes à haut risque intégrés dans des produits déjà réglementés.

Une vision claire et humaine

On ressort de cette conférence avec des repères techniques et juridiques, mais aussi avec une perspective sociale et éthique. L’IA n’y apparaît pas comme une menace abstraite, mais comme une technologie qui nous pousse à repenser nos pratiques professionnelles, nos métiers et nos responsabilités collectives.