Des investigations récentes sur ChatGPT d'OpenAI ont révélé d'importantes failles de sécurité compromettant la confidentialité des utilisateurs et l'intégrité des données. Les chercheurs ont identifié sept failles distinctes, principalement liées à la manière dont ChatGPT et son modèle auxiliaire, SearchGPT, interagissent avec le contenu web lors des requêtes des utilisateurs. Ces vulnérabilités offrent de nombreuses possibilités d'exploitation par des attaquants, pouvant mener à l'exfiltration non autorisée d'informations privées, à la manipulation des messages affichés à l'utilisateur, au contournement des mécanismes de sécurité et à d'autres activités malveillantes.
Les vulnérabilités identifiées soulèvent d'importantes préoccupations en matière de confidentialité pour des millions d'utilisateurs de ChatGPT. Selon Tenable, la menace réside dans la possibilité de combiner ces vulnérabilités pour former des vecteurs d'attaque complexes. Ces vecteurs incluent, entre autres, l'injection indirecte de requêtes, le contournement des mesures de sécurité, l'accès non autorisé aux données et les chaînes d'exploitation persistantes. Ces découvertes mettent en lumière les défis de sécurité permanents inhérents aux grands modèles de langage et aux chatbots d'IA, en particulier ceux qui traitent automatiquement les entrées externes.
Une vulnérabilité notable permet aux attaquants d'effectuer une injection de requêtes indirecte en intégrant des commandes malveillantes dans des zones apparemment anodines, comme les sections de commentaires de blog. Supposons qu'un utilisateur demande un résumé d'une telle page web à ChatGPT. Dans ce cas, le chatbot exécuterait par inadvertance les commandes cachées, y compris le partage potentiellement dangereux de liens.
Une autre méthode découverte exploite une fonctionnalité d'OpenAI qui génère automatiquement des requêtes à partir d'URL. Les attaquants peuvent ainsi créer des URL spécifiques d'apparence inoffensive, mais une fois consultées, ils injectent automatiquement des messages malveillants dans ChatGPT. Une troisième vulnérabilité met en évidence la confiance implicite accordée aux liens provenant du domaine bing.com. Les attaquants peuvent l'exploiter en associant du contenu malveillant à des sites indexés par Bing, contournant ainsi les barrières de sécurité intrinsèques de ChatGPT grâce au mécanisme de redirection de Bing.
De plus, les nouvelles découvertes de Tenable révèlent des effets sur l'historique des conversations : ChatGPT pourrait, suite à certaines manipulations, réexécuter involontairement des instructions malveillantes enregistrées, mettant ainsi davantage en danger les données et la confidentialité des utilisateurs. Les vulnérabilités « zéro clic », qui permettent d'exploiter ces failles sans aucune action de l'utilisateur, sont particulièrement préoccupantes. Il suffit de saisir des requêtes ou de cliquer sur des liens masqués par des logiciels malveillants pour que ces failles soient exploitées.
Le potentiel de ces vulnérabilités à engendrer des incidents de sécurité graves est exacerbé par la capacité des attaquants à enchaîner plusieurs types d'attaques. Ce couplage peut conduire à des violations de données d'envergure, impliquant l'exfiltration de données et un accès persistant aux interactions des utilisateurs. Ces éléments soulignent la nécessité pour les entreprises de redoubler de vigilance et de réaliser des évaluations de risques approfondies lors de l'intégration de modèles d'IA tels que ChatGPT dans leurs opérations. Sans mesures de sécurité robustes, ces systèmes demeurent vulnérables aux cybermenaces innovantes et évolutives, exposant ainsi des données sensibles.
Malgré le signalement de ces vulnérabilités par Tenable à OpenAI, la persistance de certains problèmes soulève des questions quant à la réactivité et à l'adaptation des systèmes d'IA aux failles découvertes. La complexité de ces vulnérabilités met en évidence l'importance cruciale des efforts de recherche et développement continus en matière de sécurité de l'IA, afin de garantir la résilience de ces outils face à l'évolution constante des menaces.