Faire de la médiation avec ChatGPT

This content is not available in the selected language.

Le Laboratoire de cyberjustice travaille à la mise en place d’un robot conversationnel qui soutiendrait les intervenants de la médiation et ses usagers.

Vous vous séparez. Votre partenaire veut obtenir la garde des enfants. Comme vous. Vous consultez alors un médiateur pour régler cette situation à l’amiable. Imaginez si votre médiateur était accompagné d’un robot conversationnel pour l’aider dans son travail.

C’est un des projets de recherche du Laboratoire de cyberjustice de l’Université de Montréal, dirigé par le professeur de droit Karim Benyekhlef, sur lequel travaillent des doctorants en intelligence artificielle, notamment Hannes Westermann, et des professionnels en informatique. Cet été, quelques dizaines d’étudiants et étudiantes en droit vont tester si les propositions de médiation réalisées par un robot conversationnel ont une utilité et un sens. 

Un nouvel outil de médiation avec un agent conversationnel

Le robot conversationnel, conceptualisé et développé par Hannes Westermann à la faveur de ses recherches pour le Laboratoire de cyberjustice, permettra aux différents acteurs d’un conflit de reformuler leurs propositions s’ils le souhaitent.

«L’agent virtuel permettra d’exprimer votre position dans le cadre d’une médiation. Il vous offrira ensuite la possibilité de reformuler votre proposition d’une certaine manière. Vous aurez alors le choix d’accepter ou de demander une nouvelle reformulation», explique Me Valentin Callipel, chargé de mission au Laboratoire de cyberjustice.

L’agent virtuel suggérera également différentes options de résolution de conflit.

Tester les résultats cet été

Pour la mise en place de l’agent conversationnel, l’équipe travaille avec un grand modèle linguistique, un modèle de langage comprenant plus d’un milliard de paramètres. «L’enjeu n’est pas tellement d’utiliser ce vaste corpus que de tester le résultat et de réduire au maximum les affabulations», précise Me Callipel. Le robot conversationnel peut effectivement soumettre des réponses qui semblent vraies et logiques, mais qui ne le sont pas.

Pour encadrer les réponses qui seront données, différents questionnaires ont été élaborés au Laboratoire de cyberjustice. Cet été, une cohorte étudiante entrera plusieurs réponses dans le système pour explorer les limites du robot. «On essaie d’apprendre comment contrôler le résultat qui va nous être donné: on veut obliger l’agent conversationnel à produire un résultat par rapport à un domaine particulier en lui spécifiant ce qu’il peut faire», ajoute-t-il. 

L’équipe va également comparer différents générateurs de textes pour observer lequel fournit les réponses les plus justes, comme le plus connu d’entre eux, ChatGPT, ou LLaMA, de Meta.

Des discussions surveillées

L’équipe étudiera ensuite la possibilité que le robot puisse surveiller les discussions et possiblement intervenir auprès du médiateur si son action peut être justifiée, notamment grâce à des algorithmes d’analyses de sentiments.

«Un médiateur peut avoir plusieurs dizaines de médiations à surveiller simultanément. Comment peut-il alors réussir à maintenir une surveillance de ces différents échanges? On pourrait imaginer que, si une des discussions devenait houleuse, un agent virtuel interviendrait pour prévenir le médiateur», mentionne Me Callipel.

Est-ce à dire que, demain, nous pourrions avoir une médiation menée par un robot?

«Pas du tout! nous rassure Me Callipel. On ne vise pas la déshumanisation de l’expérience de justice. À court terme, on n’imagine pas la possibilité de placer sous l’autorité d’un algorithme une quelconque activité juridique. Il faut forcément qu’une personne prenne la responsabilité professionnelle d’agir comme médiateur et peut-être que, dans le futur, il sera aidé par un algorithme.»

https://nouvelles.umontreal.ca/article/2023/07/12/faire-de-la-mediation-avec-chatgpt/

This content has been updated on 16 July 2023 at 14 h 58 min.