Par Tarik Hennen, spécialiste en stratégie digitale et IA générative, auparavant avocat en droit européen de la concurrence au sein des cabinets Stibbe et Squire Patton Boggs (2007-2011) et chercheur à l’Institut d’Études Juridiques Européennes de l’Université de Liège (2005-2006). Fondateur de l’agence Antidote.

Résumé

Les lignes directrices sur l’utilisation de l’intelligence artificielle (IA) par les avocats (“Lignes Directrices IA”), publiées par Avocats.be et l’OVB le 31 janvier 2025, constituent une avancée importante pour encadrer l’usage de ces technologies tout en respectant les principes fondamentaux de la profession.

Ces lignes directrices offrent une base solide qui ouvre la réflexion sur plusieurs aspects clés de l’intégration de l’IA dans la profession. Les présentes observations proposent des pistes de réflexion pour approfondir ce cadre et accompagner l’évolution des pratiques.

Forces des Lignes Directrices IA

  • Équilibre entre innovation et cadre déontologique, laissant aux avocats la liberté d’explorer l’IA tout en rappelant leur responsabilité.
  • Sensibilisation aux risques et enjeux des modèles IA, notamment les LLM (Large Language Models), en insistant sur la nécessité de vérifier les sources et de garantir la protection des données.
  • Encadrement du secret professionnel, interdisant l’usage d’IA ouvertes non sécurisées et prônant la pseudonymisation des données.
  • Harmonisation des pratiques à travers un cadre commun aux barreaux belges.

Résumé des recommandations :

  1. Affiner la distinction entre les catégories d’outils IA (outils génériques, tels que les LLM ; outils juridiques spécialisés …) et proposer un référentiel d’évaluation adapté.
  2. Préciser les conditions de sécurité pour l’usage d’outils IA dans le cloud ou en utilisation locale (et établir des standards minimum pour préserver le secret professionnel et protéger les données personnelles).
  3. Proposer des critères d’évaluation clairs pour aider les avocat(e)s à choisir leurs outils IA.
  4. Mettre en place une méthodologie de validation des résultats IA et assurer leur traçabilité.
  5. Formuler des recommandations sur la facturation des conseils assistés par l’IA et anticiper l’évolution du modèle économique des cabinets d’avocats.
  6. Encourager une adoption proactive de l’IA en mettant en avant ses bénéfices concrets et en proposant des études de cas illustrant son usage optimal.
  7. Instaurer un programme de formation continue sur l’IA pour garantir une utilisation sécurisée et éclairée.

1. Introduction

L’intelligence artificielle est susceptible de transformer profondément la profession d’avocat et de nombreuses facettes du travail juridique. Le déploiement de cette technologie laisse présager des gains de productivité considérables, mais suscite également des débats autour d’enjeux déontologiques, techniques et économiques.

Dans ce contexte, en janvier 2025, Avocats.be et l’Orde van Vlaamse Balies (OVB) ont publié des lignes directrices relatives à l’utilisation de l’IA par les avocats (ci-après, les “Lignes Directrices IA”).

Les Lignes Directrices IA constituent une base essentielle pour orienter les avocats dans leur utilisation de l’IA.

Elles posent des principes fondamentaux qui permettent d’encadrer l’intégration de ces technologies révolutionnaires tout en respectant les principes fondamentaux de la profession :

  • Liberté d’adoption : les avocat(e)s restent maîtres de l’intégration de ces outils.
  • Responsabilité professionnelle : l’avocat(e) demeure responsable des décisions prises, même lorsqu’elles impliquent l’IA.
  • Protection du secret professionnel : l’usage d’outils IA ne doit pas compromettre la confidentialité des données traitées.

Toutefois, certains aspects mériteraient d’être précisés pour faciliter leur mise en œuvre au sein de la profession.

2. Les points clés des Lignes Directrices IA

  • Un équilibre entre innovation et cadre déontologique : Les Lignes Directrices IA adoptent une approche pragmatique en laissant aux avocats la liberté d’explorer les opportunités offertes par l’IA, tout en insistant sur la prudence et la diligence requises. Cette flexibilité est essentielle pour accompagner les évolutions technologiques sans imposer un cadre rigide inadapté.
  • Sensibilisation aux enjeux des Large Language Models (LLM) et développement des compétences numériques : Les Lignes Directrices IA soulignent à juste titre l’importance pour les avocat(e)s de comprendre le fonctionnement des grands modèles de langage et leur impact sur la pratique juridique. Cette compréhension est essentielle pour permettre une utilisation éclairée et responsable des outils d’IA, tout en identifiant leurs limites et risques potentiels.
  • Rappel de la responsabilité de l’avocat et la vérification des sources : Les Lignes Directrices IA rappellent la nécessité de toujours conserver un esprit critique à l’égard des arguments et des raisonnements avancés. Les sources doivent logiquement être vérifiées. Les avocat(e)s restent pleinement responsables des résultats générés par une IA.
  • Absence d’obligation d’information des clients : les Lignes Directrices IA posent le principe de l’absence d’obligation des avocat(es) d’informer les clients sur l’usage de l’IA.[1]
  • Protection du secret professionnel et des données personnelles : L’interdiction d’utiliser des outils IA ouverts et non sécurisés est une mesure clé pour protéger le secret professionnel et préserver la confidentialité des données. L’accent est justement mis sur la nécessité de pseudonymiser les données personnelles.
  • Mise en place d’un cadre éthique commun à tous les barreaux : Directrices IA posent les premiers jalons d’un référentiel commun pour harmoniser les principes applicables en matière d’IA entre tous les barreaux belges.

3. Axes d’amélioration et recommandations

Définitions des concepts clefs

Certains termes clés liés à l’intelligence artificielle mentionnés dans les Lignes Directrices IA mériteraient d’être définis ou précisés.

Voici quelques exemples (la liste n’étant pas exhaustive) :

  • « Intelligence artificielle (IA)”: Bien que le document mentionne que l’IA consiste à apprendre aux machines à reconnaître des modèles, il ne donne pas de définition précise et technique de ce terme. La source décrit de manière générale le fonctionnement des LLM, mais sans définir clairement l’IA de manière globale, ce que font par ailleurs les lignes directrices de la Commission européenne sur la définition des systèmes d’IA (auxquelles il pourrait être fait référence).
  • “Large Language Models (LLM)” : Le document explique que les LLM sont une forme spécifique d’IA axée sur la compréhension et la génération de langage, mais ne donne pas de définition technique ou de spécification des caractéristiques de ces modèles. Aucun exemple n’est donné.
  • « Environnement fermé avec des garanties adéquates » : Le document indique qu’une exception au principe de non-divulgation des informations confidentielles à une IA s’applique si l’avocat travaille dans un tel environnement, mais sans préciser ce qu’implique la notion de « garanties adéquates ». Cette notion est cruciale, car elle permettrait de comprendre dans quelles conditions un avocat peut utiliser un outil d’IA sans violer le secret professionnel.
  • « Consentement de la personne concernée »: Bien que la nécessité d’un consentement soit mentionnée lorsque le traitement de données est essentiel, il n’y a aucune définition des modalités du consentement, qui peuvent varier selon la nature des données collectées, et comment il doit être obtenu dans le contexte de l’utilisation de l’IA. Ce consentement diffère-t-il du consentement requis dans le cadre du GDPR ?
  • « Robots” et “chatbots”: L’utilisation de ces termes est faite sans qu’il soit précisé ce qu’ils recouvrent exactement dans le contexte de l’IA. Le sous-titre de cette section mentionne des “robots” et le texte se réfère à l’usage de chatbots qui requièrent la nécessité d’informer les utilisateurs, mais sans distinguer les différents types de robots ou chatbots qui peuvent être utilisés par les avocats.

Par ailleurs, les Lignes Directrices IA pourraient mentionner certains termes techniques et concepts clés, tels que :

  • Agent IA : Contrairement aux LLM ou chatbots classiques qui répondent à des requêtes isolées, les agents IA peuvent exécuter des tâches de manière autonome en interagissant avec différents outils et bases de données. Les agents peuvent prendre la forme de robots ou chatbots (mais il ne faut pas confondre les nouvelles versions d’agents IA avec les robots et chatbots utilisés depuis de nombreuses années). Les spécificités des Agents IA, les progrès considérables attendus en 2025 dans ce domaine, ainsi que leur impact potentiel dans le domaine juridique en font un sujet à définir et à préciser.
  • RAG (Retrieval-Augmented Generation) : Ce terme vise une technique permettant aux IA de générer des réponses en s’appuyant sur des bases de données externes (non reprises dans les données d’entraînement des IA). Une approche pertinente dans le domaine juridique qui nécessite des explications et un encadrement particulier.
  • Fine-tuning et adaptation des modèles : La possibilité d’entraîner un modèle sur des corpus de documents juridiques spécifiques soulève des questions de confidentialité et de responsabilité qui ne sont pas traitées.

Recommandation :

Proposer des définitions techniques précises pour les termes liés à l’IA, afin de renforcer la portée pratique des Lignes Directrices IA (et faisant référence le cas échéant aux définitions proposées dans la réglementation de l’Union européenne dans les domaines tels que l’IA et la protection de la vie privée).

Ces précisions apporteraient une meilleure compréhension d’aspects techniques essentiels.

Protection des données personnelles et secret professionnel

Les Lignes Directrices IA ne précisent pas quelles solutions IA sont compatibles avec les exigences du secret professionnel.

Or, toutes les offres d’IA de référence du marché ne garantissent pas le même niveau de sécurité (ce dernier variant en fonction des formules tarifaires choisies).

Recommandations :

  • Établir une classification (indicative) des outils IA en fonction de leur niveau de protection.
  • Encourager les avocats à envisager des solutions sécurisées comme les outils d’IA déployés localement (on-premise) ou hébergés sur des infrastructures cloud souveraines.
  • Encourager la création de consortiums d’achat pour négocier des offres adaptées aux besoins de la profession (en fonction de la taille et des besoins spécifiques de différents types de cabinets ou de matières).

Critères d’évaluation des outils IA

On retrouve dans les Lignes Directrices IA des concepts clés tels que la notion d’ “environnement fermé avec des garanties adéquates” (sans que des critères précis soient établis).

Recommandations :

  • Définir un guide méthodologique pour évaluer la fiabilité et la conformité des outils IA les plus répandus (à commencer par les principaux LLM).[2]
  • Établir des bonnes pratiques pour l’utilisation des outils IA dans les tâches les plus courantes de la profession. Soulignons que de nombreuses tâches à valeur ajoutée ne posent pas réellement de risques liés au secret professionnel (par exemple, l’explication de concepts juridiques généraux à des justiciables ou le traitement de données publiques, y compris de données non juridiques).
  • Proposer des formations en matière de cybersécurité (de nombreux risques n’étant pas liés spécifiquement à l’utilisation de l’IA).

Gestion des risques liés à la pseudonymisation

L’exigence de pseudonymiser les données est pertinente, mais elle ne protège pas contre les risques d’exposition en amont, notamment via l’utilisation d’outils de transcription comme Zoom, Teams ou Google Meet.

Recommandations :

  • Préconiser l’usage de solutions de transcription locales ou sécurisées.
  • Établir des bonnes pratiques en matière de pseudonymisation avant tout usage de l’IA et le cas échéant recommander différentes techniques et outils en fonction du type de données traitées.

Responsabilité et validation des résultats IA

Les lignes directrices rappellent la responsabilité de l’avocat, mais ne proposent pas de méthodologie pour valider les analyses produites par l’IA.

Recommandations :

  • Mettre en place un protocole de validation (double vérification, contrôle des sources, traçabilité).
  • Comparer les responsabilités dans les cas liés à l’usage de l’IA avec celles des autres sources d’information (ex. recherches sur les moteurs de recherche traditionnels). Un régime différent est-il nécessaire ? Si oui, selon quels critères ?

Modèle économique et mode de facturation

L’utilisation de l’IA modifie profondément la manière dont certaines tâches sont exécutées et soulève des questions sur le mode de facturation de ces prestations par les avocat(e)s.[3]

Recommandations :

  • Aborder la question de pertinence (ou non) de la transition vers une facturation basée sur la valeur ajoutée plutôt que sur le temps passé.
  • Définir des catégories de services assistés ou non par l’IA (travail humain, assistance IA, automatisation totale).
  • Recommander des exigences minimales de supervision humaine, notamment pour certaines tâches pour lesquelles une automatisation pourrait être exclue ou fortement déconseillée.

Encouragement à l’innovation et à l’expérimentation

L’IA est souvent perçue comme un risque à encadrer, mais elle constitue aussi un levier stratégique pour améliorer l’efficacité des avocat(e)s et l’accessibilité de leurs prestations.

Recommandations :

  • Encourager l’expérimentation d’outils IA pour optimiser la gestion du temps et l’analyse documentaire.
  • Mettre en avant des études de cas illustrant les bénéfices concrets de l’IA dans la profession.
  • Accompagner les cabinets dans une adoption progressive et maîtrisée de ces technologies.

4. Conclusion

Les lignes directrices constituent une première étape essentielle pour l’encadrement de l’IA dans la profession juridique. Elles posent des principes fondamentaux garantissant la protection des données, la responsabilité de l’avocat et le respect du secret professionnel.

Les présentes observations proposent des pistes de réflexion pour approfondir ce cadre et accompagner l’évolution des pratiques.

* * *

Pour toute correction, précision ou question, n’hésitez pas à contacter Tarik Hennen.

[1] L’American Bar Association prévoit une obligation : selon l’Avis formel 512 de l’ABA, les avocats doivent informer leurs clients lorsqu’ils utilisent des outils d’intelligence artificielle générative dans leurs dossiers. Cette exigence repose sur la Règle 1.4 des ABA Model Rules of Professional Conduct, qui impose une communication claire et transparente avec les clients, incluant les bénéfices et risques liés à l’IA (Source).

[2] Citons à titre d’inspiration l’article « Which AI to Use Now: An Updated Opinionated Guide » (version du 15 février 2025 et régulièrement mise à jour) publié par Ethan Mollick, un professeur reconnu de la Wharton School de l’Université de Pennsylvanie, où il occupe le poste de Ralph J. Roberts Distinguished Faculty Scholar et maître de conférences en gestion. le Prof. Mollick est également co-directeur des Generative AI Labs, un laboratoire dédié à l’exploration des impacts de l’intelligence artificielle (IA) sur le travail, l’éducation et l’entrepreneuriat. Ses recherches, publiées dans des revues académiques prestigieuses, se concentrent sur les effets pratiques de l’IA et des simulations dans ces domaines. Auteur du livre à succès Co-Intelligence, le Prof. Mollick est reconnu comme une figure influente dans le domaine de l’IA, ayant été nommé parmi les personnalités les plus influentes en intelligence artificielle par TIME Magazine.

Dans cet article, le Prof. Mollick offre un guide pratique destiné aux utilisateurs individuels. Il examine en profondeur les capacités de trois modèles principaux : Claude (Anthropic), Gemini (Google) et ChatGPT (OpenAI), tout en explorant également des alternatives comme DeepSeek, Grok et Microsoft Copilot.

Son approche se distingue par sa transparence – il précise d’emblée que son guide est « partial » et basé sur son expérience personnelle, sans conflit d’intérêts financiers avec les laboratoires d’IA. L’article met en lumière les forces et faiblesses de chaque modèle, abordant des aspects techniques comme la génération d’images, l’exécution de code, la recherche web, et les modes de raisonnement, tout en soulignant l’évolution rapide de ces technologies.

[3] Selon les règles de l’American Bar Association, l’utilisation de l’IA ne doit pas conduire à une facturation excessive. Conformément à la Règle 1.5 des ABA Model Rules of Professional Conduct, les honoraires doivent rester raisonnables et proportionnels au temps réellement consacré, incluant le travail de supervision et de vérification des résultats générés par l’IA (Source).