Dans une découverte surprenante, une équipe de recherche de l'Université Brown a révélé une faille de sécurité majeure dans ChatGPT, le chatbot d'IA d'OpenAI. En exploitant des langues moins répandues, comme le gaélique écossais, les chercheurs ont démontré que les mécanismes de sécurité de ChatGPT pouvaient être contournés, permettant potentiellement la divulgation d'informations malveillantes.
La méthode employée par les chercheurs consistait à traduire des requêtes malveillantes en langues moins courantes à l'aide de Google Translate, puis à soumettre ces requêtes à ChatGPT. Étonnamment, dans 79% des cas, ces requêtes ont réussi à bypasser les filtres de sécurité du système, qui sont normalement efficaces à 99% pour les requêtes similaires en anglais.
Cette vulnérabilité soulève des inquiétudes majeures quant à la capacité des IA à fournir un environnement sûr, en particulier dans le contexte multilingue global. Alors que les réponses de ChatGPT n'étaient pas toujours utiles ou précises, le simple fait qu'il puisse répondre à des requêtes sensibles dans certaines conditions est préoccupant.
OpenAI a reconnu cette recherche et a indiqué son intention d'intégrer ces découvertes pour renforcer les mécanismes de sécurité de ChatGPT. Cependant, la manière exacte dont cette faille sera comblée reste incertaine. Cet incident met en évidence l'importance d'une vigilance continue et de l'amélioration des technologies d'IA pour prévenir les exploitations malveillantes.