Quand l’IA plaide, le juge rejette…Et ce n’est certainement pas un cas isolé

L’usage de l’intelligence artificielle pour rédiger des écritures contentieuses n’est plus une hypothèse, mais les juridictions administratives françaises commencent à en tracer très clairement les limites.

Deux décisions récentes en donnent une illustration frappante.

 

📌 Premier signal : la jurisprudence… inventée

Dans une décision rendue le 29 décembre 2025 (TA Orléans, n°2506461), le juge administratif examine des écritures citant de nombreuses décisions du Conseil d’État.

Problème : ces décisions n’existent pas.

  • Numéros incohérents.
  • Dates incompatibles.
  • Références jurisprudentielles introuvables.

Le tribunal évoque explicitement les phénomènes d’« hallucination » ou de « confabulation » propres aux modèles de langage.

Le rappel est simple mais fondamental : une citation jurisprudentielle engage celui qui la produit.

 

📌 Deuxième signal : un raisonnement qui “ressemble” à du droit

Dans une ordonnance du 28 janvier 2026 (TA Rennes, n°2506364), la requête est rejetée sur le fondement de l’article R.222-1 du Code de justice administrative, faute de moyens permettant d’en apprécier le bien-fondé.

Le juge relève :

  • un raisonnement très générique,
  • l’absence de lien réel avec les faits du litige,
  • des formulations abstraites incompatibles avec une argumentation opérante

Autrement dit : un texte juridiquement structuré en apparence, mais sans véritable qualification juridique des faits.

Ce ne sont pas deux incidents isolés, c’est le début d’une vigilance jurisprudentielle.

  • Dans un cas : l’invention de sources juridiques.
  • Dans l’autre : un raisonnement standardisé, détaché du litige.

Mais les deux situations révèlent le même problème : l’usage d’outils d’IA sans contrôle intellectuel réel.

 

⚖️ Ce que les juges rappellent en réalité

La procédure contentieuse repose sur des exigences précises :

  • la vérification des sources
  • la qualification juridique des faits
  • l’adaptation des moyens au litige
  • la responsabilité de l’auteur de l’argumentation.

Un modèle de langage peut produire un texte crédible, mais il ne peut pas :

  • garantir l’existence d’une jurisprudence,
  • apprécier la pertinence d’un moyen,
  • assumer la responsabilité procédurale d’une argumentation.

 

🔎 La question qui se profile

L’intelligence artificielle va évidemment continuer à pénétrer la pratique contentieuse.

Aujourd’hui : elle aide à rédiger, mais ces décisions rappellent déjà une limite essentielle : le contentieux n’est pas une simple production de texte, c’est un raisonnement juridique appliqué à des faits singuliers, dans un cadre contradictoire où quelqu’un doit répondre de l’argumentation produite.

Pour l’instant, cette responsabilité reste humaine.

 

Et vous, avez-vous déjà rencontré des écritures manifestement générées par IA ? Et pensez-vous que ces situations vont se multiplier devant les juridictions ?

 

Sources :

https://opendata.justice-administrative.fr/recherche/shareFile/TA45/DTA_2506461_20251229

https://opendata.justice-administrative.fr/recherche/shareFile/TA35/ORTA_2506364_20260128

Facebook
Pinterest
Twitter
LinkedIn

Latest Post