👉 Le problème n’est plus l’adoption, c’est un risque… systémique.
📊 Ce qui est en train de se passer
Les usages explosent, mais pas là où on les attendait :
▪️ outils choisis directement par les juristes
▪️ initiatives individuelles
▪️ absence de cadre formalisé
👉 Le terrain a déjà gagné.
⚠️ Le vrai sujet
Ce phénomène a un nom : shadow AI, et il crée un risque concret :
▪️ violation du secret professionnel
▪️ exposition de données sensibles
▪️ absence de contrôle contractuel (DPA, hébergement)
▪️ aucune traçabilité
👉 Ce n’est plus un risque individuel, c’est un risque structurel.
⚖️ Le droit n’est pas en retard
Contrairement à ce que l’on entend :
▪️ RGPD (sécurité, sous-traitance, licéité)
▪️ secret professionnel
▪️ responsabilité du professionnel
▪️ cadre à venir du AI Act
👉 Les règles existent déjà.
📌 La réponse des institutions
Le Conseil national des barreaux a publié un guide en mars 2026, qui impose :
▪️ pseudonymisation / anonymisation des données
▪️ vérification des outils (sécurité, localisation)
▪️ supervision humaine obligatoire
▪️ transparence sur l’usage
▪️ réflexion sur les honoraires
👉 L’IA n’est pas interdite, elle est encadrée.
🔄 Le vrai basculement
Avant :
👉 “Faut-il utiliser l’IA ?”
Aujourd’hui :
👉 “Qui la maîtrise réellement ?”
⚠️ La tension que personne n’assume
L’IA ne remplace pas les juristes, mais elle remplace déjà :
▪️ la recherche simple
▪️ la rédaction standardisée
▪️ l’analyse répétitive
👉 Ce qui disparaît…c’est une partie de la valeur facturable.
📌 L’IA n’élimine pas la responsabilité, elle la concentre
Si des juristes utilisent des outils interdits :
👉 ce n’est pas seulement un problème de conformité
👉 c’est souvent une défaillance de l’organisation.
Le sujet n’est plus technologique, il est juridique et stratégique.


