top of page

L'avocat et l'IA

Une déontologie numérique pour un bon usage de l'IA

Droit digital

Les débats sur l’utilisation de l’intelligence artificielle appartiennent désormais au passé. La question n’est plus d’apprendre à utiliser l’IA mais de cadrer son usage. Même l’apprentissage du “prompting” n’est plus une nécessité. Dorénavant, l’utilisateur demandera à l’IA de lui créer un agent spécifique pour améliorer la pertinence des recherches et des réponses ou, s’il souhaite garder un meilleur contrôle du prompting, il demandera à l’IA de lui poser dix questions pour mieux identifier les fonctions de son agent conversationnel et créer un prompt en fonction des réponses données. 

En matière d’IA, il n’est plus tant question de technique que d’éthique. 

Que pouvons-nous demander à l’IA qui soit en accord avec nos règles déontologiques et spécialement nos devoirs de loyauté, de dignité, de compétence ? Nous ne pouvons assurément pas nous présenter comme les auteurs d’actes de procédure qui auraient été créés par l’IA. Ce serait tromper nos clients et les magistrats. Au demeurant, la création de contenus fiables n’est toujours pas le point fort de ce type d’outils. 

L’IA doit être comprise comme un outil et non un avocat virtuel.

La force de l’IA tient à sa capacité de calcul permettant d’analyser des données avec d’infinies combinaisons (variables). Elle crée des corrélations inattendues qui permettent des analyses nouvelles. Dans sa contribution intitulée “convaincre au temps de l’IA”, le professeur Benoît Frydman trace les pistes d’un usage intelligent de l’IA. Il cite l’exemple d’un litige en matière de licenciement pour motif grave d’une travailleuse salariée. Elle est maman solo, travaille pour une grande chaîne de magasins, ses fins de mois sont difficiles et il lui est reproché d’avoir volé du lait pour bébés. Il est incontestable que si les faits sont établis, ils constituent un vol. Cela justifie-t-il pour autant de la licencier pour motif grave ?  

L’analyse de la jurisprudence par l’IA pourrait permettre d’identifier des facteurs de décision auxquels nous ne pourrions pas avoir accès autrement que par l’utilisation d’un outil de gestion de gros volumes de données. Il se pourrait que la conjugaison des critères “maman solo”, “vol de lait pour bébé”, “grande chaîne de magasins” aboutisse à constater que les juges ne valident pas le motif grave. Toujours pour citer le professeur Frydman, les mêmes faits survenus dans une petite épicerie familiale pourraient aboutir à la confirmation du motif grave en raison des liens de confiance unissant le patron de l’épicerie à son personnel. 

C’est à ce niveau que l’IA produit des questions et génère des idées.

Elle questionne l’application des concepts (par exemple “vol” qui demeure la soustraction frauduleuse d’un bien appartenant à autrui) aux situations réelles soumises aux juges (le vol justifie-t-il le renvoi pour motif grave ?). 

L’IA sera un excellent équipier virtuel si elle aide à se poser les bonnes questions et si elle suscite des idées.

Pour ce faire, et par application du devoir de loyauté, l’avocat se doit d’être transparent dans l’usage de l’IA :  

L'avocat est et demeure responsable des écrits qu’il signe

L'avocat est tenu de vérifier ses sources avec rigueur

L'avocat doit déclarer l’usage qu’il fait de l’IA

L'avocat est tenu de conserver l’intégrité des informations qu’il soumet à l’IA

L'avocat demeure en tout temps soumis au secret professionnel et est responsable de la conformité des outils d’IA qu’il utilise aux obligations de confidentialité et à son secret professionnel 

bottom of page