- Université
- Formations
- Recherche
- International
- Campus
Initiée par le vice-président recherche Thierry BONNEAU en 2022, l'Université Panthéon-Assas a tenu sa troisième journée de la recherche, mardi 19 novembre.
Thierry BONNEAU introduit la journée en rappelant les points déterminants de l’évolution de la recherche à l'Université Paris-Panthéon-Assas : attraction des jeunes et des professionnels vers le doctorat, communauté scientifique engagée dans la transdisciplinarité, valorisation croissante de la recherche au sein de notre université. Ces missions traduisent le triple enjeu de faire corps pour produire la recherche, fondement de l’établissement, la valoriser et la transmettre aux étudiants de l'université.
Au-delà de l’enjeu de la définition (multiple et circonstanciée) de l’intelligence artificielle (IA), il convient d’interroger la réalité de l’interaction humain-machine, telle qu’elle s’applique concrètement au cœur de l’économie, la justice ou la santé. Les limites et problèmes existent depuis longtemps, mais la nouveauté est que les machines apprennent par elles-mêmes et cet apprentissage est au cœur des problèmes que soulève l’IA : quelles données ? Quel entrainement de l’algorithme ? Degré d’autonomie de la machine ? Dans quelle mesure peut-on envisager une décision autonome de la machine selon le domaine d’application ? Le contrôle d’une voiture dans l’espace public diffère du contrôle d’un paiement en ligne. Éthique et multidisciplinarité paraissent essentielles pour traiter ces problématiques. Au-delà de l’évolution technique et de leurs spécificités ; robotique, machine learning, deeplearning, IA générative… la question de la normalisation imposée par l’IA interroge tant le rôle des algorithmes publicitaires que les catégories du jugement établies par l’IA, normalisatrices du fonctionnement cérébral (humain) lui-même. Dès lors, la définition des risques dans l’IA demande un recul sur les catégories mêmes de sa perception. Qui est compétent pour les définir ?
Cette première table-ronde était animée par Cécile CHAINAIS, professeure à l'Université Paris-Panthéon-Assas, directrice du Centre de Recherche sur la Justice, et Sylvain JOBERT, professeur à l'Université Paris-Nanterre.
Les rapports entre justice et IA demandent de croiser les regards et de collecter des témoignages variés, afin d’identifier quels sont les usages sociaux de l’IA, comment les acteurs du droit développent leur pratique propre de l’IA, à travers des points de vue spécifiques et des perspectives quant à l’usage à venir.
IA et droit, de quoi parle-t-on ? Les outils de justice prédictive sont largement exposés à ces évolutions techniques. Les enjeux sont nombreux quant à la complémentarité entre IA et humain.
Si l’IA est adaptée pour traiter de vastes volumes de données, son utilisation en partant de l’artisanat juridique suppose d’interroger la plus-value de l’outil. Les données, quantitativement plus disponibles, s’améliorent également qualitativement, y compris sans les innovations de LLM, deeplearning ou d’outils type Mistral. L’intérêt de l’IA réside dans ce qui peut être automatisé, pour alléger les tâches chronophages, pas dans une substitution à l’expertise métier.
L’IA se prête peu à l’activité artisanale d’avocat aux Conseils, elle suscite des attentes mais peu d’usages établis, hors d’une aide à la recherche documentaire ou bibliographique insuffisante en elle-même. La mise au point d’un outil adapté nécessite la poursuite de discussions tout juste initiées.
La pratique des avocats à la Cour ou des avocats d’affaire est plurielle. Les outils utilisés vont de l’IA générative généraliste à des solutions appliquées développées par les éditeurs juridiques appuyées ou non sur le LLM. L’art de la recherche tend alors à sanctifier un certain art du prompt, impératif du questionnement direct de l’IA. Certains outils de recherche spécialisés connectés offrent d’analyser des sources de données spécifiques, data privées, clauses et contrats, emails… Les questions soulevées en matière de propriété intellectuelle obligent l'Université Paris-Panthéon-Assas à explorer les variations autour de ces questions.
L’IA essentielle sur plusieurs aspects dans les contrôles et sanctions des exportations dans la lutte contre le contournement d’embargo. Ces missions reposent sur le savoir-faire d’experts : la structuration de la qualité de la donnée est essentielle en plus de la formation des équipes pour détecter un schéma de fraude, détecter ce qui correspond à une évolution de l’économie normale ou ce qui correspond à des manœuvres de pays sous embargo pour contourner des sanctions internationales. L’impératif du Secret Défense national implique le besoin d’outils spécifiques mis en place pour le contrôle des exportations et la protection du potentiel scientifique de la nation, notamment la propriété intellectuelle. Le data management implique l’étude des clauses de milliers de contrats, impossible sans IA. Elle offre donc de gagner du temps et ainsi focaliser le temps du juriste sur les taches où il a de la valeur ajoutée. L’outil IA ne fait cependant que dégrossir une série de questions pour améliorer l’apport humain aux processus.
Malgré ces multiples apports de l’IA en termes de structuration des données, d’amélioration des données et de l’IA, le recentrement des professions sur leur valeur ajoutée marque aussi les limites et risques associés ; qualité des données entrantes définissant la valeur des données sortantes (garbage in garbage out) ou des algorithmes, certaines IA de traduction prenant tant en considération l’environnement des mots traduits qu’un « avocat » mangé dans une cour de justice peut être traduit par « lawyer » et non « avocado ». Si la vérification humaine est impérieuse, quelle est la valeur ajoutée de l’IA ? Comment sont composées, utilisées, monétisées ou partagées les bases de données alimentant l’IA ? Dans quelle mesure l’IA peut-elle apporter son concours à la rédaction des clauses lorsqu’elle est programmée pour éviter les répétitions de formules (pourtant impérieuses à la cohérence juridique) ou à l’évolution des jurisprudences, celles-ci nécessitant une sensibilité sur l’évolution du droit dont peut être dépourvue une IA ? Comment former les nouvelles générations aux mauvaises pratiques sur l’IA lorsque cette technique poursuit son évolution exponentielle ? Qui est responsable pour l’IA ? Cécile Chainais rappelle la réflexion de Sartre : « L’homme n’est pas ce qu’il est, il est ce qu’il fait de ce qu’on fait de lui. »
Cette deuxième table-ronde était animée par Bruno DEFFAINS, professeur à l'Université Paris-Panthéon-Assas et abordait les thèmes suivants :
L’IA est une thématique transformant en profondeur la recherche, que ce soit pour redéfinir les pratiques scientifiques, la manière de poser des questions, de trouver des réponses. Toutes les étapes de la collecte à l’analyse des données, l’interprétation des résultats et leur diffusion sont touchées par cette révolution technologique qui bouleverse les identités de chercheurs ; qu’est-ce que faire de la recherche lorsque l’IA réalise des opérations impossibles à concurrencer ? Que voulons-nous conserver de l’humain dans le processus scientifique ? Comment l’IA peut aider recherche ? Quels défis, technique, éthique, pédagogique cela appelle, notamment pour les jeunes chercheurs ?
L’histoire du droit offre de comprendre les fondements de la justice. Un enjeu crucial concerne le Parlement de Paris : forteresse archivistique, plus ancienne institution de l’état royal, 5 siècles et demi d’existence depuis Saint-Louis (1250), toutes ces archives conservées dès le 16e siècle comportent des milliers de cartons, des centaines de milliers de pages, 25600 articles d’archive… Le projet PARL-IA-Ment(s) vise à construire, non pas une base de données, mais grâce à la génération augmentée de récupération (RAG), d’imaginer une interface à dimension humaine, interface structurée avec un grand modèle de langage (LLM) et interrogation par l’IA, via une interface de programmation d'application (API) en open access, offrant d’ouvrir les archives historiques du droit au plus grand nombre.
On peut distinguer la recherche sur l’IA (et droit) de la recherche par l’IA. Sur l’IA, il s’agit ici d’étudier la place de l’IA dans le droit des contrats. La recherche par l’IA demande des recommandations sur l’usage, les fonctions acceptables de l’IA : robot de recherche fabuleux, économie considérable de temps, dont il n’est pas question de se priver, mais aussi robot de traduction intelligente, l’IA générative devient juris-générative, malgré une créativité limitée. La recherche du juste et du bon demeure une expérience fondamentalement humaine. Le recours à l’IA doit donc se faire, avec prudence.
L’IA offre un gain de temps dans l’accès aux données et permet un élargissement des perspectives ; loin de se substituer au chercheur ou à l’esprit critique, l’IA les révèle. L’usage en est bénéfique s’il est raisonné. Elle offre de précieux outils (Unriddle, Deepl) qui transforment profondément l’articulation des sources et des idées. Cette confrontation critique participe à la (re)structuration d’une analyse et d’une approche globale dans laquelle la rédaction est d’abord réalisée par l’IA et la reformulation par des chercheurs maîtres du contenu tout en bénéficiant d’une expression fluidifiée. En amont, certains outils demandent une maitrise des prompts pour optimiser les entrées de texte mais aussi une maitrise technique et une approche critique à partir de laquelle l’IA va générer une réponse. En aval, l’IA présente des limites de fiabilité et de qualité des résultats rendant une vérification obligatoire dans un esprit critique. L’obligation déontologique règne donc au cœur démarche, seule garante de la préservation d’une intégrité scientifique.
Comme le rappelle Bruno Deffains, le GPS privé de batteries est moins utile que les connaissances héritées d’ancêtres Inuit pour survivre dans l’arctique canadien. Il ne faut pas que ces outils modernes nous fassent perdre nos compétences traditionnelles (Brian KOONOO, « Inuunira: My Story of Survival »).
Les PhD box, ce sont 2 thèses dans 2 disciplines menées parallèlement, ici par un juriste et un informaticien. Ce dispositif suppose une collaboration intense des doctorants, l’informaticien doit avoir des bases juridiques, l’IA doit être alimentée par des sources présélectionnées par le juriste. Le suivi de la collaboration est important, exigeant et ambitieux scientifiquement, mais aussi révélateur des limites de l’IA. Ces thématiques associées au droit comparé révèlent aussi la richesse des confrontations entre modèles juridiques internationaux multilingues ; common law, droit civil ou autres systèmes plus complexes, avec parfois des alphabets différents.
L’informatique vise à modeler l’IA pour qu’elle réponde aux demandes du droit, en utilisant de nouvelles approches et en se familiarisant à la discipline juridique. Le premier défi est d’harmoniser les vocabulaires et de fonder les algorithmes après un dialogue profond avec les experts du champ. Les objectifs sont de favoriser l’interdisciplinarité, former des profils mixtes, mettre l’efficacité de l’IA au service du droit, renouveler les perspectives d’analyse et éclairer des points aveugles. Le dispositif PhD box vise à engager une synergie et un travail parallèle, chacun dans ses particularités mais en interaction pour une production partagée et une validation croisée.
On peut faire la distinction entre déontologie, intégrité et droit. L’éthique questionne ce qu’est une bonne recherche en conformité avec un droit souple (guidée par une charte) et droit dur, générateur de sanctions. La question la plus courante dans le domaine des sciences humaines est celle du plagiat, qui doit être anticipée en préparant le jeune chercheur, notamment avec le serment doctoral.
L’usage de l’IA varie selon les outils aux performances variées. Les risques de surutilisation, de dépendance, d’erreurs d’interprétation ou de confidentialité sont à prendre en compte. Ceux-ci interrogent également les modalités d’alimentation de l’IA, qui pourraient faire l’objet d’une validation académique, écho à la validité en question des travaux utilisant l’IA, nécessitant protocoles de détection, questionnant la crédibilité des méthodologies associées. Comme interroge France Travail, le modèle à suivre oscille entre centaure et cyborg, opposant la standardisation à la créativité et imposant une régulation demandée par les étudiants, dont Panthéon-Assas dispose des meilleurs atouts pour l’élaborer.
En propos conclusifs, M. Yackolley AMOUSSOU-GUENOU, maître de conférences en informatique souligne que l’intérêt de l'Université Paris-Panthéon-Assas réside dans les interactions, dialogues entre collègues spécialistes. Les disciplines et les pratiques se conjuguent en droit et en IA, à l’aune du spectre de l’histoire du droit et de la justice, sur des questions de propriété intellectuelle, pour les sciences économiques, les sciences politiques et les relations internationales ou du journalisme, qui subit davantage ces évolutions de l’IA que d’autres disciplines. L’informatique, autre spécialité, porte une expertise technique mais manque de compétences associés aux domaines disciplinaires précités. L’hybridation des savoirs et des compétences au travers d’une interdisciplinarité concrète amène Panthéon-Assas à considérer l’impact sur la société, aux côtés d’un volet pédagogique exigeant pour considérer la valeur de ces techniques en regard de l’expertise académique.
La journée s'est conclue par la remise des prix de thèse par le président de l'université, Stéphane BRACONNIER, et le vice-président recherche Thierry BONNEAU.