Extrait de la Conférence de Marianne Dabbadie SNDGCT Languedoc Roussillon

Quand Marianne Dabbadie prend la parole, elle ne se contente pas de dérouler un catalogue de données : elle raconte, éclaire, et rend accessible un sujet aussi technique que l’intelligence artificielle. Spécialiste reconnue, chercheuse associée au laboratoire LHUMAIN de l’Université Paul-Valéry à Montpellier, elle est aussi la fondatrice d’Évalir, une entreprise installée à Sarlat qui accompagne collectivités, écoles et organisations dans leurs réflexions autour de l’IA et du management. Son expertise a d’ailleurs été remarquée par la Commission des affaires économiques de l’Assemblée nationale, qui l’a sollicitée pour nourrir ses travaux sur l’avenir des métiers à l’heure de l’IA.

La conférence s’ouvre par un dialogue de quarante-cinq minutes avec Hubert Vialatte, journaliste aux Échos. L’échange est dynamique, ponctué d’exemples concrets, avant de s’ouvrir largement aux questions du public. Trois grandes thématiques guident l’intervention : les usages déjà à l’œuvre dans les collectivités, les changements que l’IA apporte dans les méthodes de travail, puis ses effets sur l’emploi et les compétences.

Le cadre juridique : entre protection et innovation

Marianne replace d’abord l’IA dans son environnement réglementaire. Le RGPD, que chacun a déjà croisé, fixe des règles précises : consentement clair, transparence, limitation des données et droit à l’explication. Mais depuis 2024, une nouvelle pièce maîtresse complète le dispositif : l’IA Act, le règlement européen sur l’intelligence artificielle.
Celui-ci classe les systèmes en quatre catégories de risque : inacceptable (et donc interdit), élevé (fortement encadré), limité (obligation d’information) et minimal (contraintes légères). Certaines pratiques sont bannies d’emblée, comme la surveillance de masse en temps réel, la reconnaissance faciale dans l’espace public, la notation sociale, la lecture des émotions des salariés ou encore la manipulation comportementale. L’idée est claire : protéger les libertés sans freiner l’innovation utile.

IA Act, un calendrier qui installe progressivement les règles

Pour éviter un big bang réglementaire, l’IA Act prévoit une mise en œuvre par étapes.

  • Dès février 2025, les systèmes jugés inacceptables devront disparaître.

  • En août 2025, les fournisseurs d’IA générative auront l’obligation de jouer la carte de la transparence : signaler clairement quand un contenu a été produit par une IA, et peut-être y ajouter des filigranes invisibles. C’est aussi à ce moment que les débats sur le droit d’auteur dans les créations hybrides homme–IA s’annoncent plus vifs.

  • En août 2026, les entreprises devront prouver leur conformité selon le niveau de risque de leurs systèmes, sous peine d’amendes qui peuvent grimper jusqu’à 7 % du chiffre d’affaires mondial.

  • Enfin, en août 2027, les règles s’appliqueront pleinement aux systèmes à haut risque intégrés à des produits déjà réglementés.

Résultat : on sort de la conférence non seulement avec des clés de compréhension techniques et juridiques, mais aussi avec une vision claire des enjeux humains et sociaux. L’IA n’est pas présentée comme un monstre froid, mais comme une technologie qui oblige à repenser nos pratiques, nos métiers, et nos responsabilités.