L’AI Act européen est entré en vigueur en août 2024. Les entreprises se préparent, les formations se multiplient, les consultants affluent. Et nous, dans le secteur associatif ? Nous continuons à utiliser TOUS ChatGPT, Claude ou Gemini pour nos tâches quotidiennes… de manière individuelle et sans cadre commun.
L’AI act ?
L’AI Act (Règlement sur l’intelligence artificielle) est le premier cadre juridique complet au monde régissant l’intelligence artificielle. Adopté par l’Union européenne, il est entré en vigueur en août 2024.
Objectifs principaux
- Garantir que les systèmes d’IA utilisés dans l’UE soient sûrs et respectent les droits fondamentaux
- Établir un équilibre entre innovation et protection des citoyens
- Créer un cadre harmonisé pour l’ensemble du marché unique européen
Approche par niveaux de risque
L’AI Act adopte une approche basée sur le risque, avec quatre catégories :
1. Risque inacceptable (interdiction)
- Systèmes de notation sociale par les gouvernements
- Manipulation comportementale causant un préjudice
- Exploitation des vulnérabilités de groupes spécifiques
- Identification biométrique en temps réel dans les espaces publics (avec exceptions limitées)
2. Risque élevé (réglementation stricte)
- IA dans les infrastructures critiques
- Éducation et formation professionnelle
- Emploi et gestion des travailleurs
- Services publics essentiels
- Application de la loi
- Justice et processus démocratiques
Obligations : évaluation de conformité, documentation technique, transparence, surveillance humaine, robustesse et cybersécurité.
3. Risque limité (obligations de transparence)
- Chatbots et systèmes génératifs
- Deepfakes et contenu manipulé
Obligations : informer les utilisateurs qu’ils interagissent avec une IA.
4. Risque minimal (pas de réglementation)
- Filtres anti-spam, jeux vidéo avec IA, etc.
Dispositions spécifiques pour l’IA générative
Les systèmes d’IA à usage général (comme les grands modèles de langage) doivent :
- Respecter le droit d’auteur européen
- Publier des résumés détaillés des données d’entraînement
- Pour les modèles à risque systémique : évaluations plus strictes et tests contradictoires
Sanctions
Les amendes peuvent atteindre :
- 35 millions d’euros ou 7% du chiffre d’affaires mondial pour les violations les plus graves
- 15 millions d’euros ou 3% pour d’autres infractions
- 7,5 millions d’euros ou 1,5% pour informations incorrectes
Calendrier de mise en œuvre
- Août 2024 : Entrée en vigueur
- Février 2025 : Interdiction des pratiques à risque inacceptable
- Août 2026 : Application des règles sur l’IA à usage général
- Août 2027 : Application complète pour les systèmes à haut risque
Impact global
L’AI Act devrait avoir un effet Bruxelles, influençant la réglementation de l’IA au niveau mondial, à l’instar du RGPD pour la protection des données.
L’AI Act : le révélateur de notre hypocrisie collective
Levons les mains : qui dans votre équipe n’a JAMAIS copié-collé un texte dans ChatGPT ? Qui n’a jamais demandé à une IA de reformuler un mail, d’analyser un document, de résumer un rapport de 30 pages, ou de trouver des idées pour une campagne de sensibilisation ?
Personne.
Pourtant, dans nos réunions d’équipe, dans nos formations, dans nos politiques internes… on efface les traces. Cette pratique massive reste invisible, non documentée, sans cadre. On le fait, mais on n’en parle pas ou peu.
Pendant que les juristes décortiquent les 144 articles de l’AI Act, nos équipes continuent à copier-coller allègrement dans leurs outils favoris, sans plus de supervision qu’avant. Le paradoxe est saisissant : nous nous préparons à une conformité réglementaire sur des pratiques que nous n’avons jamais officiellement reconnues.
Les pratiques qu’on n’avoue pas (mais qu’on fait tous)
La demande de subvention « améliorée »
Cette demande de financement retravaillée avec l’IA, avec nos montants exacts, notre positionnement face aux autres associations locales, nos faiblesses budgétaires avoués… Tout y passe. C’est tellement plus efficace qu’un brainstorming interne !
L’email copié-collé du bénéficiaire en détresse
« Peux-tu m’aider à rédiger une réponse appropriée à cet email ? » – suivi du message complet de la personne, avec ses problèmes personnels détaillés. Parce qu’on veut bien faire, parce qu’on manque de temps, parce que l’IA formule mieux que nous.
Pourquoi on cache nos traces
Ce n’est pas de la mauvaise foi. C’est un mélange complexe de :
La culpabilité silencieuse
On sait qu’on devrait peut-être pas. Mais c’est tellement pratique. Alors on le fait, mais on n’en parle pas.
La peur du jugement
« Les autres pensent peut-être que je ne suis pas assez compétent si j’utilise l’IA ? » Résultat : chacun utilise l’IA en cachette, pensant être le seul à le faire.
L’absence de cadre
Personne ne nous a dit si c’était autorisé ou pas. Alors on préfère ne rien dire et continuer à le faire.
La stratégie de l’autruche organisationnelle
Si on n’en parle pas officiellement, le problème n’existe pas, non ? Spoiler : si, il existe.
Les conséquences de ce déni collectif
Zéro protection des données
Sans politique claire, chacun décide selon son propre jugement ce qui est « sensible » ou pas. Spoiler : les définitions varient énormément.
Risques juridiques non maîtrisés
Le RGPD et l’AI Act s’appliquent que vous l’ayez officialisé ou non. L’ignorance n’est pas une défense légale.
Inégalité dans les compétences
Certains utilisent l’IA efficacement et en sécurité, d’autres prennent des risques énormes sans le savoir. Aucune formation collective n’existe pour harmoniser les pratiques.
Image de marque fragilisée
Que se passe-t-il si un bénéficiaire découvre que ses informations personnelles ont transité par ChatGPT ? La confiance, capital principal des associations, s’effondre.
L’AI Act nous force à choisir
L’Union européenne vient de nous dire : « OK, maintenant assumez et encadrez. »
Deux options s’offrent à nous :
Option 1 : Continuer à faire l’autruche
- Prétendre préparer des « politiques IA » sur du vent
- Ignorer les usages réels qui continuent en sous-marin
- Espérer passer entre les mailles du filet
Option 2 : Sortir enfin du déni
- Cartographier VRAIMENT ce qui se passe
- Mettre en place des garde-fous réalistes
- Former les équipes aux bonnes pratiques
- Transformer cette obligation en opportunité
Alors, on fait quoi maintenant ?
Première étape : briser l’omertà
Commencez par un simple sondage anonyme dans votre équipe : « Qui utilise l’IA ? Pour quoi faire ? À quelle fréquence ? » Vous allez découvrir que vous êtes TOUS dans le même bateau. Et c’est libérateur.
Deuxième étape : arrêter de culpabiliser
L’utilisation de l’IA n’est pas le problème. C’est un outil puissant qui peut vraiment aider les associations. Le problème, c’est l’absence d’encadrement.
Troisième étape : passer à l’action
Dans nos prochains articles, nous verrons concrètement :
- Comment l’IA mémorise vraiment vos données (et ce que ça implique)
- Comment mettre en place un cadre d’utilisation réaliste et efficace
Conclusion : l’hypocrisie a assez duré
Nous sommes TOUS dans le même bateau. Nous utilisons TOUS l’IA sans cadre. Nos équipes, nos dirigeants, nos partenaires… Stop à l’hypocrisie.
Le problème n’est pas l’usage – c’est qu’on cache les traces et qu’on refuse d’en parler. Nous avons collectivement créé un angle mort organisationnel énorme.
Il est temps de sortir du déni, non pas pour culpabiliser, mais pour enfin mettre en place les garde-fous que cette révolution technologique mérite.
La vraie question n’est plus « utilisez-vous l’IA ? » mais « quand allez-vous enfin arrêter de le cacher ? »