Un avocat fait face à un contrecoup de sa dépendance excessive à ChatGPT devant le tribunal

Un avocat new-yorkais, Steven Schwartz du cabinet d'avocats Levidow, Levidow & Oberman, a été critiqué pour avoir intégré ChatGPT, un modèle de langage d'IA, dans ses recherches juridiques tout en traitant un procès contre Avianca Airlines. L'affaire concerne Robert Mata, qui dit avoir été blessé par un chariot de service lors d'un vol avec la compagnie aérienne colombienne en 2019, a rapporté CNN Business le 28 mai.

L'avocat a déposé des dossiers incorrects obtenus à partir de ChatGPT

L'histoire a pris une tournure inattendue lorsque le juge chargé de la procédure a découvert des incohérences et des erreurs factuelles dans la documentation fournie. Dans un affidavit daté du 24 mai, Schwartz a admis avoir utilisé ChatGPT pour ses recherches juridiques et a déclaré qu'il n'était pas au courant du potentiel de fausses informations dans son contenu. Il a ajouté que c'était la première fois qu'il utilisait le modèle d'IA pour la recherche juridique.

L'examen du juge a révélé que plusieurs cas présentés par l'avocat semblaient être fictifs, avec des citations fabriquées et des citations internes inexactes. En outre, certaines affaires citées se sont avérées inexistantes et il y a eu un cas où un numéro de registre a été associé par erreur à une autre déclaration judiciaire.

L'avocat a regretté de s'être appuyé sur le chatbot de l'IA sans faire preuve de diligence raisonnable. Son affidavit a souligné qu'il regrettait grandement d'avoir utilisé l'IA générative dans le processus de recherche et s'engage à ne pas répéter la pratique sans une vérification absolue de l'authenticité.

Les analystes discutent du potentiel de l'IA pour remplacer les humains

L'intégration de ChatGPT dans les flux de travail professionnels a suscité un débat permanent sur son adéquation et sa fiabilité. Alors que l'intelligence des modèles d'IA comme ChatGPT continue de progresser, des questions subsistent quant à leur capacité à remplacer complètement les travailleurs humains. Syed Ghazanfer, un développeur de blockchain, reconnaît la valeur de ChatGPT mais remet en question ses capacités de communication en tant que substitut complet de l'interaction humaine. Insistez sur le fait que les langages de programmation ont été créés pour répondre à des exigences qui peuvent ne pas être transmises efficacement en anglais natif.

À mesure que la technologie de l'IA progresse, les développeurs et les praticiens naviguent dans l'équilibre délicat entre l'exploitation de ses capacités et la garantie de l'exactitude et de la validité des informations qu'elle génère. L'affaire impliquant Steven Schwartz et son utilisation de ChatGPT sert de récit édifiant, soulignant l'importance de la surveillance humaine et de l'évaluation critique dans la recherche juridique et d'autres contextes professionnels.

Bien que les modèles d'IA comme ChatGPT puissent aider à rationaliser certaines tâches, ils doivent être utilisés conjointement avec une expérience humaine et des processus de vérification approfondis pour minimiser le risque d'inexactitudes et de fausses informations. Alors que les limites des capacités de l'IA s'étendent, il reste essentiel pour les praticiens de faire preuve de prudence et de discernement lors de l'intégration de tels outils dans leur travail.