"Je refuse l’expression d’intelligence artificielle. Elle est non seulement totalement erronée, mais également dangereuse pour notre système juridique et pour notre démocratie". Entretien accordé par Maître Maud COUDRAIS au QUOTIDIANO GIURIDICO (Altalex), mis en ligne le 5 septembre 2024

-

Lire l'article original en italien publié par ALTALEX (Quotidiano Giuridico)

 

Traduction en français de l'entretien accordé par Maître Maud COUDRAIS au QUOTIDIANO GIURIDICO (ALTALEX), mis en ligne le 5 septembre 2024.

 

Pensez-vous que l'intelligence artificielle constitue une opportunité pour les avocats?

"Je pense qu'accepter cette formulation constitue un danger non seulement pour la profession juridique, mais aussi pour le système juridique lui-même et pour le citoyen. Je refuse de considérer cela comme un problème purement sémantique, vain ou futile. L'utilisation de cette formulation erronée n'est pas du tout innocente. Comme l'écrivait Camus : « Mal nommer un objet, c'est ajouter au malheur du monde ». En tant qu'avocate, je considère comme mon droit et mon devoir de refuser les idées fausses qu’on essaye de nous imposer. C'est l'origine de ma vocation et de la noblesse de ma profession. Je ne peux pas me résigner à être une simple technicienne, même si je m'efforce constamment d'améliorer ma technique et que je la considère comme une arme décisive pour mon efficacité et ma crédibilité, mais aussi pour ma satisfaction personnelle. L'avocat a un rôle politique et philosophique dans notre société. Il est vraiment dommage que la profession ait massivement renoncé à réfléchir à la notion d'intelligence artificielle elle-même. Nous, juristes, avons beaucoup à dire sur la question. Nous pouvons comparer nos techniques de raisonnement et de prise de décision avec les techniques algorithmiques. La notion d'intelligence artificielle, à travers son évaluation critique, offre une formidable opportunité de réflexion sur l'intelligence juridique, sur le raisonnement et les processus de prise de décision dans le domaine juridique. La résistance aux automatismes est un stimulant pour affirmer notre utilité et nos valeurs humanistes.

 

Pourquoi le terme intelligence artificielle est-il erroné ? Nous devons nous interroger sur la signification exacte de ce que l'on appelle « l'intelligence » artificielle. Il ne s'agit pas d'une véritable intelligence, mais plutôt de programmes prédictifs. En fait, il s'agit de programmes, composés de fonctions mathématiques, qui réalisent des prédictions à partir d'un ensemble de données. Ces programmes sont capables de s'entraîner à établir des prédictions de plus en plus précises à mesure que la quantité de données disponibles augmente. Qu'est-ce qui différencie ces processus de l'intelligence humaine ? Tout. L'intelligence humaine fait référence à un sujet, doté de conscience. Ce qu'on nomme « intelligence » artificielle renvoie à un objet, c'est-à-dire à une technique, à une machine. Les dispositifs visés ne sont capables d'intuition, de sensibilité, d'empathie ou de créativité. Par conséquent, les processus de prédiction automatisés n'ont aucune autonomie ni capacité critique ou adaptative. Dans le domaine juridique, il faudra toujours recourir à l’intelligence humaine d’un juriste pour sélectionner les données pertinentes de programmation, pour formuler la question appropriée à soumettre au système, et pour analyser et vérifier la pertinence de la prédiction obtenue. Les avocats, confrontés à des clients qui prétendent avoir trouvé la réponse à leur question en ligne, le savent. Tout le travail consiste à bien poser les questions. Or, bien poser une question juridique requiert une solide culture juridique, laquelle n’est pas accessible au profane. Ensuite, même lorsque la question est bien posée, la réponse doit être vérifiée en prenant en compte la spécificité de chaque situation. Les programmes de prédiction n'inventent rien. Ils ne sont déterminés que par le passé. Ils ne font qu'un calcul de probabilités à partir de décisions passées sur des cas passés. Or, nous savons combien la vie est pleine d'imprévisibilité, de cas particuliers, voire exceptionnels, d'anomalies. Les algorithmes ne savent pas comment gérer cela. Et c'est la base du travail quotidien de l'avocat. C'est ce qui différencie l’avocat du technocrate et qui le rapproche dans ses bons jours de l’artiste. Bien sûr, ces processus ont une capacité dite d’entraînement, c’est-à-dire de perfectionnement. Qu'est-ce que cela signifie ? Que plus il y a de données stockées dans la machine, plus les prédictions peuvent être précises. Mais rien ne change à ce qui vient d'être dit. Il n'en reste pas moins que la prétendue « intelligence artificielle » n'a pas la capacité qu'a notre intelligence de s'adapter à un imprévu ou à un détail inattendu. Tout l'aspect éthique de l'intelligence humaine est également absent. Parce que le sens éthique n'est pas reproductible. Il est indissociable de la sensibilité.

Face à ces constats, comment expliquer que l'expression « intelligence artificielle » soit si facilement acceptée par la communauté juridique ? Conformisme ? Peur d'être jugé rétrograde ? Volonté d’afficher sa compétitivité sur le marché des services ? Malheureusement, il y a aussi à mon avis le fait que dans notre culture technocratique, on s'est habitué à penser que l'intelligence serait réductible à la rationalité. Même si la science elle-même nous a prouvé qu'il n'y a pas d'intelligence sans sensibilité. Il suffit de lire le neuroscientifique Antonio Damasio (Knowing and feeling ̧ 2022). Voilà pourquoi à mon sens le terme « intelligence artificielle » est totalement erroné. Mais ce n'est pas tout. Il est aussi dangereux.

 

 

Pourquoi le terme « intelligence artificielle » est-il dangereux dans le domaine juridique ?

Parler d'intelligence artificielle appliquée au droit participe du phénomène général de déshumanisation de notre droit, que je décris dans mon essai Réhumaniser le droit (Mimesis Editions pour l’édition italienne et Lextenso/LGDJ pour la version française). En réalité, ce phénomène est plus complexe car, comme nous venons de le voir, l'intervention humaine ne peut pas être évacuée. Mais un tel cadre de pensée favorise toutes les dérives technocratiques, car il minimise et banalise leur aspect inhumain en qualifiant ces techniques d'intelligentes. C'est une expression manipulatrice et rhétorique, tout sauf neutre. De plus, elle nourrit le fantasme que les systèmes prédictifs puissent offrir un remède contre les défauts de notre intelligence humaine appliquée à la loi, notamment l'arbitraire, les préjugés, l'incompétence...

 

Ce n'est pas une coïncidence, puisque d'un point de vue économique, l’intelligence artificielle est avant tout un produit, avec un marché très lucratif, en plein essor. Le terme est en soi un outil de promotion et de vente. En langage juridique, parler d’ « intelligence artificielle » pourrait être qualifié de  bonus dolus, c'est-à-dire de mensonge utilisé à des fins commerciales, mais toléré car culturellement considéré comme une forme de tromperie inévitable dans le monde des affaires. Pourtant, je doute qu’une telle lucidité soit ici de mise. La propension générale à adopter les discours tout faits, sans exercer son esprit critique, l’espérance de gagner en temps et en rentabilité, constituent autant d’obstacles à une vision réaliste de la vraie nature de ces techniques.

 

Sur le plan culturel, le discours convenu sur l'IA participe à une américanisation de notre société et de notre droit. Je n’ai rien contre le progrès. Encore faut-il que progrès il y ait. Dans le cas présent, je doute que la destruction de notre tradition juridique romano-germanique constitue un progrès. Notre patrimoine juridique mérite d'être préservé et mis en valeur.

 

Pourquoi les techniques prédictives sont-elles elles-mêmes très problématiques dans le domaine juridique ?

Sur le plan politique, si l'on s'interroge sur la portée réelle des systèmes prédictifs, et de leur utilisation par un juge, la justice prédictive va à l'encontre de notre Constitution. Le fait que des systèmes de prédiction, c'est-à-dire des calculs de probabilités, soient utilisés pour trouver la solution d’un problème juridique va à l'encontre de la séparation constitutionnelle des pouvoirs. Comme l'écrivait Montesquieu, le juge doit être « la bouche qui prononce les paroles de la loi ». Dans notre système juridique de droit écrit, le juge n'a pas le droit de créer le droit. La loi exprime la volonté du peuple, par la voix de ses représentants. Dans le système de common law, en revanche, le juge dit le droit. Cela pose donc un vrai problème démocratique, puisque le peuple se trouve évacué. Utiliser l'intelligence artificielle pour trouver la solution en partant des précédents est une manière de reconnaître un pouvoir réglementaire aux juges et d'en priver le législateur. Nous sommes face à un véritable court-circuit démocratique. Il y a aussi des risques en termes de droit à la vie privée, de libertés publiques, d’accroissement des inégalités sociales.

Au niveau de la pratique juridique, nombreux sont les risques : perte de contrôle des processus, détérioration de notre système juridique (I’IA est faillible), atrophie de nos propres capacités juridiques (tentation de la paresse, des automatismes, du conformisme). Bien sûr, en tant qu'avocate, j'utilise tous les jours les moteurs de recherche pour rechercher des jurisprudences qui peuvent soutenir ou menacer ma thèse. Je me suis d'ailleurs abonnée, à contre cœur, à l'un de ces moteurs de recherche payants. J'avoue que mon efficacité s’en est trouvée améliorée. Mais je considère cette ressource comme une nourriture pour mon raisonnement, et non comme un substitut à mon raisonnement. D’ailleurs, en droit de la famille, l’accès libre et exhaustif aux décisions rendues est une illusion. Non seulement beaucoup de décisions de justice sont rendues en chambre du conseil, c’est-à-dire qu’elles ne sont pas prononcées publiquement, ce afin de garantir le respect de la vie privée des justiciables (avec une importante part d’arbitraire dans la mise en œuvre de ce critère). La loi interdit donc leur mise en ligne. En tout état de cause, je refuse de considérer ces décisions comme contraignantes et figées. La beauté du droit de la famille, c'est qu'il repose à juste titre sur des notions larges telles que « l'intérêt supérieur de l'enfant » qui ne peuvent être enfermées dans des formules toutes faites. Défendre, par exemple, ma vision de l'intérêt supérieur de l'enfant et convaincre le juge de celle-ci reste une science inexacte, irréductible à une formule algorithmique, car elle résulte de la conjonction d'une multiplicité de facteurs et de particularités propres à chaque situation. Seuls la sensibilité, l'intuition, les valeurs, en un mot, tout ce que la soi-disant intelligence artificielle n'a pas, mais que seule l'intelligence humaine a peut m’aider à construire mon argumentaire. Ensuite, dans notre système juridique, grâce à la hiérarchie des normes, je peux toujours remettre en cause le bien-fondé d’une solution « prédite » par un logiciel voire apparemment dictée par la jurisprudence antérieure. Je peux toujours créer et justifier une autre solution, en utilisant les grands principes et valeurs constitutionnels et européens (par exemple, le droit au respect de la vie privée et familiale). L'intelligence artificielle ne peut pas faire cela.

J'utilise également la fonction qui me permet de trouver des jurisprudences contraires à celles invoquées par l'autre partie, ou de vérifier les modifications qu'elle a apportées entre des jeux successifs de conclusions. Mais je dois dire que je vérifie aussi la vérification. Et j'y trouve souvent des erreurs.

J'utilise également, ayant à gérer beaucoup de situations à dimension internationale, des programmes de traduction de textes. Ils sont très utiles pour traduire des documents en langue étrangère (par exemple, de nombreux courriels entre les parties qui sont désormais toujours utilisés dans les procédures de divorce ou de garde d'enfants). Ils me font gagner beaucoup de temps, ce qui profite aussi au client. Mais je vérifie systématiquement ces traductions. Et systématiquement, je dois corriger des erreurs, souvent significatives. Il est donc essentiel de toujours garder à l’esprit que ces systèmes sont faillibles.

 

Comme il n'y a pas d'avocats sans juges, je vois aussi immédiatement tous les risques de ces techniques pour le raisonnement du juge et pour la justice. Ces techniques participent d’un processus de dématérialisation et de désincarnation de la justice, qui creuse la distance entre le juge, l’avocat et les parties, jusqu'à l'incommunicabilité. En fin de compte, l'abstraction nous conduit à nous éloigner de la réalité. Notre chair, nos sens, c'est-à-dire notre présence physique sont notre premier instrument de perception de la réalité. Depuis Aristote, nous savons que le plaideur qui s'adresse à un juge mobilise trois types de capacités, le logos, le pathos et l’ethos. Le premier, le logos, la rationalité, constitue précisément la dimension de l'intelligence artificielle. En la matière, elle peut rendre de grands services, offrant des capacités de stockage sans commune mesure avec celles de l'être humain. Mais quid du pathos (les émotions) et de l’ethos (la crédibilité liée aux qualités éthiques de celui qui plaide) ? L'intelligence artificielle n'est pas capable d'empathie. Pire, les systèmes dits d’intelligence artificielle peuvent reconnaître les émotions, sans les ressentir. Ils peuvent donc être programmés pour utiliser des données qualitatives de manière quantitative, ce qui est particulièrement biaisé, pervers, dangereux. Car les programmes, les algorithmes sont dépourvus de toute sensibilité éthique. Par ailleurs, le juge risque de se conformer aux résultats de la machine, par conformisme, par peur de la sanction, et de se déresponsabiliser face à la prétendue objectivité de la technique.

 

Pour conclure, en tant qu’avocat, ce que je vois dans les techniques prédictives appliquées au droit, c’est avant tout une grande opportunité de réaffirmer et de valoriser notre intelligence humaine, notre technique juridique et notre esprit critique. Nous devons utiliser ces outils prédictifs en développant et en conservant la plus grande conscience possible de leurs limites. Nous devons notamment garder à l'esprit leur caractère subsidiaire, complémentaire et faillible. Nous devons aussi rester attentifs aux enjeux politiques et éthiques qu’ils soulèvent.