Les dérives des avocats face à l’IA, recensées
Les «AI Hallucination Cases» est une base de données sur les avocats qui ont utilisé en justice des arguments fictifs générés par l’IA.
Il y a deux ans, un cabinet d'avocats new-yorkais a soumis au juge un mémoire truffé d’erreurs, avec des références juridiques inventées de toutes pièces. L’auteur admet avoir eu recours à ChatGPT, sans réaliser que ce chatbot pouvait générer de fausses informations.
Au grand embarras de l'étude et des avocats concernés, cette histoire avait fait le tour du monde. Et on pouvait pensait que cet épisode suffirait à dissuader d’autres avocats de céder à la tentation des réponses faciles générées par l’IA.
Pourtant, ce phénomène n’a cessé de croître. Damien Charlotin, Chercheur Associé à HEC Paris et Enseignant à Sciences Po Paris, ou il donne des cours d'Analyse Juridique des Données, a créé une base de données baptisée «AI Hallucination Cases» qui recense désormais 116 affaires confirmées dans 12 pays (principalement aux États-Unis et en Israël mais aussi au Royaume-Uni, Canada, Australie, Brésil, Pays-Bas, Italie, Irlande, Espagne, Afrique du Sud et Trinidad et Tobago).
Dans chacune de ces affaires, un avocat a utilisé des contenus hallucinés par une IA – c’est-à-dire des références ou arguments purement fictifs – et a été pris sur le fait, entraînant le plus souvent, une mesure disciplinaire.
Les sanctions infligées varient selon la gravité: avertissements simples, critiques sévères dans les jugements, renvoi devant des commissions disciplinaires, voire amendes (jusqu’à 2 500 $ dans certains cas) et frais de justice. Dans certains dossiers, les juges ont même rejeté purement et simplement l’affaire, ou imposé des dommages pour procédure abusive.
Rien qu’au mois de mai 2025, 20 nouveaux cas ont été recensés, illustrant bien que, malgré les avertissements répétés, la tentation d’utiliser les IA génératives reste forte chez de nombreux avocats.
Sources : Simon Willison’s Weblog / AI Hallucination Cases