NEW YORK – Dans la salle d’audience de la cour d’appel de New York, la voix d’un jeune homme à la coiffure impeccable s’est élevée, prêt à prononcer son discours. Il n’a fallu que quelques secondes au Sénat pour se rendre compte que l’orateur n’avait pas seulement un diplôme en droit, mais qu’il n’existait pas du tout. Il s’agissait d’un nouveau chapitre bizarre dans l’entrée maladroite de l’intelligence artificielle dans le monde du droit.
L’incident s’est produit le 26 mars sous la voûte en vitrail de l’une des plus hautes cours de justice de New York. Le Sénat s’apprêtait alors à entendre Jerome Dewald, plaignant dans un litige relevant du droit du travail, qui avait décidé de prononcer son discours à l’aide d’une vidéo préenregistrée.
« Le plaignant a présenté une vidéo pour son discours », a annoncé la juge Sallie Manzanet-Daniels.
Un homme souriant, d’apparence jeune, vêtu d’une chemise et d’un pull, est apparu à l’écran. « Avec votre permission, votre honneur », a-t-il commencé. « Je me présente aujourd’hui comme un humble profane devant un panel de cinq juges respectés. »
« Attendez, a-t-elle immédiatement interrompu. Est-ce le représentant légal dans cette affaire ?
« C’est moi qui l’ai généré. Ce n’est pas une personne réelle », répondit Dewald depuis sa place dans la salle d’audience.
La juge ne cacha pas son indignation et ordonna à voix haute d’éteindre la vidéo. « Je n’aime pas qu’on me trompe », ajouta-t-elle avant de permettre à Dewald de poursuivre son discours en personne.
Dewald s’est ensuite excusé par écrit auprès du tribunal, affirmant qu’il n’avait pas l’intention de nuire à qui que ce soit. N’ayant pas d’avocat, il espérait que l’avatar présenterait ses arguments de manière plus fluide, sans son bégaiement et son marmonnement habituels.
Ce cas n’est pas unique. En juin 2023, deux avocats et leur cabinet à New York ont été condamnés à une amende de 5 000 dollars pour avoir utilisé un outil d’intelligence artificielle dans le cadre de leurs recherches juridiques. Cet outil leur a généré des citations de cas judiciaires fictifs, qu’ils ont ensuite utilisées dans leurs conclusions.
Une situation similaire s’est reproduite lorsque les avocats de Michael Cohen, ancien avocat personnel de Donald Trump, ont également cité des jugements fictifs. M. Cohen a alors endossé la responsabilité, affirmant qu’il n’avait pas réalisé que l’outil de Google était capable de produire ce que l’on appelle des « hallucinations IA ».
Cependant, l’utilisation d’avatars IA n’est pas toujours indésirable. Le mois dernier, la Cour suprême de l’Arizona a commencé à utiliser délibérément deux avatars IA, « Daniel » et « Victoria », pour résumer les décisions judiciaires à l’intention du public.