L'utilisation de l'IA dans le cloud introduit de nouveaux risques
- 8 avr.
- 3 min de lecture
Dernière mise à jour : 8 avr.

Près des trois quarts des charges de travail cloud sur lesquelles sont installés des logiciels d'IA (Azure, AWS et GCP) présentent au moins une vulnérabilité critique
Les mauvaises configurations cloud de type Jenga émergent au sein des services d'IA
Les paramètres par défaut pour les accès racine introduisent de nouveaux risques.
L'exposition massive des données crée des risques de data poisoning ou de fuite de données sensibles
Le cloud et l'IA sont des atouts indéniables pour les entreprises. Cependant, l'utilisation de l'IA dans le cloud introduit de nouveaux risques. Le rapport « Tenable Cloud AI Risk Report 2025 » met en évidence l'état actuel des risques de sécurité au sein des frameworks et outils de développement IA dans le cloud, ainsi que dans les services d'IA offerts par les trois principaux fournisseurs de services cloud, à savoir AmazonWeb Services (AWS), Google Cloud Platform (GCP) et Microsoft Azure. Il démontre que l'IA basée sur le cloud est propice à des combinaisons toxiques évitables qui vulnérabilisent les modèles et les données IA sensibles face à la manipulation, la falsification et la fuite de données.

Ce qu'il faut retenir :
Les charges de travail d'IA dans le cloud ne sont pas immunisées contre les vulnérabilités.
Environ 70 % des charges de travail d'IA dans le cloud contiennent au moins une vulnérabilité non corrigée. Tenable Research signale la vulnérabilité CVE-2023-38545, une vulnérabilité Curl critique dans 30 % des charges de travail d'IA dans le cloud.
Lorsqu'elle est exploitée, cette vulnérabilité peut entraîner un accès involontaire à un serveur malveillant.
De mauvaises configurations cloud de type Jenga® (1) sévissent dans les services d'IA managés.
Pour 77 % des entreprises, le compte de service Compute Engine est configuré en mode sur privilégié par défaut dans les notebooks Vertex AI de Google. Par conséquent, tous les services créés sur ce compte de service Compute Engine par défaut sont à risque.
Les données d'entraînement d'IA sont susceptibles d'être polluées, de fuiter ou de fausser les résultats des modèles .
14 % des entreprises qui utilisent Amazon Bedrock ne bloquent pas explicitement l'accès public à au moins un bucket d'entraînement d'IA et 5 % ont au moins un bucket trop permissif. La fonctionnalité S3 Block Public Access d'Amazon est une bonne pratique pour configurer en toute sécurité les buckets S3 sensibles et empêcher les accès non autorisés et l'exposition accidentelle de données.
Des instances du notebook Amazon SageMaker accordent un accès racine par défaut.
La grande majorité (90,5 %) des entreprises qui ont installé Amazon SageMaker ont au moins une instance de notebook sur laquelle est activé le paramétrage par défaut d'accès racine. Un accès racine peut permettre à un utilisateur de modifier, supprimer des fichiers, voire d'installer un composant logiciel non autorisé. Conformément au principe du moindre privilège, AWS recommande en matière de sécurité de restreindre l’accès root aux ressources de l’instance afin d’éviter un sur-provisionnement involontaire des autorisations.
susceptibles de révéler des algorithmes propriétaires et des éléments de propriété intellectuelle. Lorsqu'elles sont compromises, les informations d'authentification peuvent permettre aux attaquants d'accéder à d'autres ressources critiques, telles que les buckets S3, qui stockent souvent des données d'entraînement, des modèles pré-entraînés ou des informations sensibles comme des données personnelles (PII).
Le non-respect du principe du moindre privilège augmente considérablement le risque d'accès non autorisé, ce qui permet aux attaquants d'exfiltrer les modèles d'IA, c'est-à-dire de voler des modèles
Lorsque nous utilisons de l'IA dans le cloud, cela ne concerne pas seulement les données sensibles. Si un pirate manipule les données ou le modèle d'IA, cela peut avoir des conséquences catastrophiques à long terme, comme la violation de l'intégrité des données ou la compromission de la sécurité des systèmes critiques, sans compter la perte de la confiance des clients. Liat Hayun, VP Recherche et Gestion des produits pour la sécurité du cloud chez Tenable.

Les mesures de sécurité du cloud doivent évoluer pour répondre aux nouveaux défis que pose l'IA et trouver le bon équilibre entre protection des données d'IA contre les attaques complexes et innovation responsable dans le domaine de l'IA par les entreprises.
1) Le « concept de type Jenga » de Tenable identifie la tendance des fournisseurs cloud à créer des services superposés les uns aux autres, avec « en arrière-plan » la construction de blocs qui héritent de configurations à risque d'une couche sur l'autre. Ce type de mauvaises configurations cloud, tout particulièrement dans les environnements IA, peut avoir des conséquences très graves si elles sont exploitées par des attaquants.
Commentaires