CONSCIENT
NESS

Des failles découvertes dans ChatGPT mettent en lumière des défis urgents en matière de sécurité de l'IA.

Des investigations récentes révèlent des failles de sécurité critiques dans ChatGPT, l'exposant à des attaques potentielles qui compromettent la confidentialité des utilisateurs et l'intégrité des données. Les chercheurs ont identifié des vulnérabilités liées aux interactions avec le contenu web, que des attaquants pourraient exploiter pour manipuler les messages des utilisateurs et contourner les mesures de sécurité. Face aux préoccupations concernant la confidentialité, les experts soulignent la nécessité d'évaluations de sécurité rigoureuses pour protéger les systèmes d'IA comme ChatGPT contre l'évolution des menaces, car certains problèmes persistent malgré leur signalement à OpenAI.

Des investigations récentes sur ChatGPT d'OpenAI ont révélé d'importantes failles de sécurité compromettant la confidentialité des utilisateurs et l'intégrité des données. Les chercheurs ont identifié sept failles distinctes, principalement liées à la manière dont ChatGPT et son modèle auxiliaire, SearchGPT, interagissent avec le contenu web lors des requêtes des utilisateurs. Ces vulnérabilités offrent de nombreuses possibilités d'exploitation par des attaquants, pouvant mener à l'exfiltration non autorisée d'informations privées, à la manipulation des messages affichés à l'utilisateur, au contournement des mécanismes de sécurité et à d'autres activités malveillantes.

Les vulnérabilités identifiées soulèvent d'importantes préoccupations en matière de confidentialité pour des millions d'utilisateurs de ChatGPT. Selon Tenable, la menace réside dans la possibilité de combiner ces vulnérabilités pour former des vecteurs d'attaque complexes. Ces vecteurs incluent, entre autres, l'injection indirecte de requêtes, le contournement des mesures de sécurité, l'accès non autorisé aux données et les chaînes d'exploitation persistantes. Ces découvertes mettent en lumière les défis de sécurité permanents inhérents aux grands modèles de langage et aux chatbots d'IA, en particulier ceux qui traitent automatiquement les entrées externes.

Une vulnérabilité notable permet aux attaquants d'effectuer une injection de requêtes indirecte en intégrant des commandes malveillantes dans des zones apparemment anodines, comme les sections de commentaires de blog. Supposons qu'un utilisateur demande un résumé d'une telle page web à ChatGPT. Dans ce cas, le chatbot exécuterait par inadvertance les commandes cachées, y compris le partage potentiellement dangereux de liens.

Une autre méthode découverte exploite une fonctionnalité d'OpenAI qui génère automatiquement des requêtes à partir d'URL. Les attaquants peuvent ainsi créer des URL spécifiques d'apparence inoffensive, mais une fois consultées, ils injectent automatiquement des messages malveillants dans ChatGPT. Une troisième vulnérabilité met en évidence la confiance implicite accordée aux liens provenant du domaine bing.com. Les attaquants peuvent l'exploiter en associant du contenu malveillant à des sites indexés par Bing, contournant ainsi les barrières de sécurité intrinsèques de ChatGPT grâce au mécanisme de redirection de Bing.

De plus, les nouvelles découvertes de Tenable révèlent des effets sur l'historique des conversations : ChatGPT pourrait, suite à certaines manipulations, réexécuter involontairement des instructions malveillantes enregistrées, mettant ainsi davantage en danger les données et la confidentialité des utilisateurs. Les vulnérabilités « zéro clic », qui permettent d'exploiter ces failles sans aucune action de l'utilisateur, sont particulièrement préoccupantes. Il suffit de saisir des requêtes ou de cliquer sur des liens masqués par des logiciels malveillants pour que ces failles soient exploitées.

Le potentiel de ces vulnérabilités à engendrer des incidents de sécurité graves est exacerbé par la capacité des attaquants à enchaîner plusieurs types d'attaques. Ce couplage peut conduire à des violations de données d'envergure, impliquant l'exfiltration de données et un accès persistant aux interactions des utilisateurs. Ces éléments soulignent la nécessité pour les entreprises de redoubler de vigilance et de réaliser des évaluations de risques approfondies lors de l'intégration de modèles d'IA tels que ChatGPT dans leurs opérations. Sans mesures de sécurité robustes, ces systèmes demeurent vulnérables aux cybermenaces innovantes et évolutives, exposant ainsi des données sensibles.

Malgré le signalement de ces vulnérabilités par Tenable à OpenAI, la persistance de certains problèmes soulève des questions quant à la réactivité et à l'adaptation des systèmes d'IA aux failles découvertes. La complexité de ces vulnérabilités met en évidence l'importance cruciale des efforts de recherche et développement continus en matière de sécurité de l'IA, afin de garantir la résilience de ces outils face à l'évolution constante des menaces.

Le ministère américain du Commerce a pris une mesure importante en interdisant à Kaspersky Lab, Inc., une filiale de la société russe de cybersécurité Kaspersky Lab, de fournir ses logiciels et services aux clients américains. Cette action fait partie des efforts plus larges visant à sauvegarder la sécurité nationale et à protéger les informations sensibles contre…

EN SAVOIR PLUS

CDK Global, un important fournisseur de solutions logicielles pour les concessionnaires automobiles, est confronté à de graves défis opérationnels en raison d'une récente cyberattaque. L'attaque a perturbé les activités d'environ 15 000 concessionnaires en Amérique du Nord, obligeant nombre d'entre eux à revenir à des processus manuels et provoquant d'importantes interruptions d'activité.…

EN SAVOIR PLUS

Un récent cyberincident a mis en évidence les vulnérabilités inhérentes aux attaques de la chaîne d'approvisionnement, la bibliothèque JavaScript Polyfill s'étant révélée au centre d'une vaste faille de sécurité. Cet incident a touché plus de 100 000 sites Web, démontrant les vastes implications et la nature sophistiquée des cybermenaces modernes. Chaîne d'approvisionnement…

EN SAVOIR PLUS