
Quand l'IA entre au cabinet, la question n'est pas celle qu'on croit
Il y a une question simple à se poser avant d'envoyer un document dans un outil d'intelligence artificielle :
"Est-ce que je le montrerais à un stagiaire externe non-assermenté qui met en story tout ce qu'il voit ?"
Si la réponse est non, le document ne part pas dans un LLM externe. Pas aujourd'hui. Pas dans la configuration actuelle du marché.
Ce réflexe n'est pas une posture paranoïaque. C'est une traduction opérationnelle de ce que le Conseil National des Barreaux vient de formaliser dans son guide sur l'IA et déontologie avocat. Et c'est le point de départ d'une distinction que la profession du droit doit commencer à faire clairement : stocker des données et les soumettre à un modèle de langage, ce ne sont les mêmes choses.
"Nos mails sont déjà chez Google" : un argument qui ne tient pas
L'objection revient régulièrement dans les échanges entre professionnels du droit. Les dossiers transitent déjà chez Microsoft, les mails dorment chez Google, les signatures passent par DocuSign. Alors pourquoi s'agiter pour un LLM de plus dans l'écosystème ?
Le raisonnement est séduisant. Il n'est pas faux sur le constat. Mais il efface une distinction fondamentale.
Microsoft stocke une enveloppe fermée. Il ne l'ouvre pas. Il ne tire pas de conclusions sur son contenu. Il ne modélise pas les relations entre vos clients, vos positions stratégiques ou vos marges de négociation.
Un modèle de langage, lui, lit. Il comprend. Il infère. Soumettez-lui un dossier complet et il en extrait des patterns, profile les parties, identifie la logique argumentative sous-jacente. Ce n'est pas une différence de degré. C'est une différence de nature.
Le réflexe pour évaluer un hébergement cloud, c'est : les données sont-elles stockées en Europe, dans un cadre contractuel maîtrisé ? Le réflexe pour évaluer un LLM dans le cadre d'un audit IA juridique, c'est le test du stagiaire. Ces deux questions n'ont pas le même objet.
Ce que dit réellement le guide IA du CNB
Le Conseil National des Barreaux a publié un guide opérationnel sur l'IA et déontologie avocat, à destination de l'ensemble des professionnels inscrits au barreau. Il y rappelle les fondamentaux qui s'appliquent sans dérogation : secret professionnel, protection des données personnelles, indépendance intellectuelle, information du client, prudence dans l'usage des outils.
Sur un point, le texte est direct : aucune donnée confidentielle issue d'un dossier en cours ne doit transiter dans un outil d'IA générative dont l'avocat ne maîtrise pas la sécurité, l'hébergement, et plus largement la chaîne de traitement des données.
Ce n'est pas une interdiction de l'IA. C'est une exigence de maîtrise. Et la nuance est importante, parce qu'elle replace la responsabilité là où elle appartient : sur l'avocat qui choisit l'outil, pas sur l'outil lui-même.
La soirée où un avocat a annoncé qu'il avait tout mis dans Claude
L'autre soir, lors d'une soirée professionnelle, un avocat expliquait avec une fierté déconcertante qu'il avait mis l'ensemble de ses dossiers dans Claude. Tous. Sans filtre apparent, sans distinction de sensibilité, sans infrastructure dédiée.
La remarque n'était pas posée comme une interrogation. C'était une démonstration. Une preuve de modernité.
C'est exactement le profil de risque que le guide du CNB cherche à adresser. Non pas l'avocat réticent à l'IA, mais celui qui engage la transformation IA de son cabinet d'avocats sans cadre, convaincu que l'efficacité justifie tout.
Sur le plan de l'IA et déontologie avocat, cette pratique pose un problème concret : des données de dossiers sensibles ont transité dans un outil externe dont les conditions de traitement, d'hébergement et de rétention n'ont vraisemblablement pas été auditées. Le secret professionnel, qui est d'ordre public et absolu en droit français, ne tolère pas ce type d'exposition par défaut.
Le risque n'est pas le même pour tout le monde
Il faut être précis sur ce point, parce que la réalité des cabinets est hétérogène.
Un avocat qui traite essentiellement du droit de la famille ou du contentieux civil de masse n'est pas exposé aux mêmes enjeux qu'un cabinet qui accompagne des opérations de fusions-acquisitions, du contentieux commercial international ou des clients institutionnels dans des secteurs régulés. Dans le premier cas, la question centrale est la protection de la vie privée des justiciables. Dans le second, on touche à des actifs stratégiques dont la valeur économique repose précisément sur leur confidentialité.
Le test du stagiaire reste valable dans les deux situations. Mais le niveau d'enjeu, la probabilité d'un préjudice grave et l'exigence d'un audit IA juridique formalisé ne sont pas identiques. Un cabinet en droit des affaires qui n'a pas de politique sur l'usage des LLM en 2025 prend un risque professionnel et réputationnel que son assurance responsabilité civile ne couvre probablement pas.
Où l'IA a sa place dans un cabinet aujourd'hui
Compte tenu du cadre actuel, il existe peu de solutions qui permettent d'utiliser un LLM sur des dossiers en cours en respectant pleinement les exigences du CNB au quotidien. Les offres souveraines, les déploiements locaux sur infrastructure maîtrisée, et les solutions avec zero data retention certifiées restent encore peu accessibles à la majorité des structures.
Cela ne signifie pas que la transformation IA d'un cabinet d'avocats doit attendre. Elle a une place précise, utile, et immédiatement accessible, à condition de la cantonner aux bons usages.
La facturation, les devis, le marketing, les contenus de communication, la veille juridique sur des sources publiques, la rédaction de modèles génériques non liés à un dossier en cours : ce sont des terrains sur lesquels les outils grand public apportent un gain de temps réel sans exposer de données sensibles.
Un dossier client actif, une pièce de procédure, une stratégie contentieuse en cours : non.
La ligne n'est pas technique. Elle est déontologique.
L'avocat de demain ne sera pas celui qui utilise les meilleurs outils
Ce point mérite d'être dit clairement, parce qu'il change la manière dont la profession devrait envisager sa transformation IA.
Le vrai avantage concurrentiel dans les années qui viennent ne sera pas d'avoir accès à Claude ou GPT-4. Ces outils seront disponibles pour tout le monde, à des coûts marginaux. L'avantage sera de comprendre comment ils fonctionnent, ce qu'ils peuvent et ne peuvent pas faire, et surtout comment les intégrer dans des processus maîtrisés, des infrastructures souveraines, des workflows qui respectent le cadre de l'IA et déontologie avocat.
L'avocat de demain n'est pas un juriste qui délègue à un LLM. C'est un juriste qui sait embarquer ses compétences dans des outils qu'il comprend assez pour les configurer, les limiter, et en répondre devant son client. Un juriste-développeur dans le sens le plus large du terme : quelqu'un qui ne subit pas la transformation IA de son cabinet, qui la conçoit.
Les cabinets qui prendront ce virage ne seront pas ceux qui auront adopté le plus vite. Ce seront ceux qui auront fait l'audit IA juridique de leurs pratiques avant de déployer.
Ce que ça change concrètement
Trois questions à se poser avant tout déploiement d'IA dans un cabinet :
L'outil utilisé est-il hébergé en Europe, dans un cadre contractuel avec engagement explicite sur la non-utilisation des données pour entraîner les modèles ?
Le contenu soumis passerait-il le test du stagiaire externe non-assermenté ?
Le client a-t-il été informé, a minima dans la lettre de mission, de l'usage d'outils d'IA sur ses dossiers, comme le recommande le guide du CNB sur l'IA et déontologie avocat ?
Si l'une de ces trois réponses est incertaine, le déploiement n'est pas prêt.
Ce n'est pas du conservatisme. C'est de la rigueur professionnelle. Et c'est précisément ce que le marché va commencer à distinguer.