Le New York Times rapporte un incident inhabituel dans lequel un avocat a été sanctionné pour avoir utilisé le programme d'intelligence artificielle ChatGPT lors d'un procès à New York. L'avocat a apparemment utilisé le logiciel pour aider à la préparation de sa défense, une utilisation qui a été jugée inappropriée par le tribunal.
Le tribunal a estimé que l'utilisation de ChatGPT par l'avocat outrepassait les limites de l'éthique professionnelle, puisque le programme n'est pas en mesure d'exercer le jugement humain nécessaire pour fournir des conseils juridiques fiables. De plus, le tribunal a souligné que le logiciel n'a pas été formé sur des données postérieures à septembre 2021, ce qui pourrait limiter sa connaissance des changements législatifs et jurisprudentiels récents.
La décision du tribunal pourrait avoir des implications importantes pour l'utilisation de l'intelligence artificielle dans le domaine juridique. Alors que de plus en plus de professionnels du droit se tournent vers l'IA pour aider à la recherche et à la préparation des cas, cette affaire souligne les limites potentielles et les problèmes éthiques que cela peut poser.