A la UneIA-Veille

L’IA générative sous attaque: la nouvelle frontière de la cybersécurité

Par Frederik Dembak, directeur en Chef adjoint Investissement

Une révolution qui change aussi la surface des risques

Depuis deux ans, les grands modèles d’IA se sont glissés partout : dans les assistants clients, dans la finance, jusqu’aux hôpitaux. Mais à mesure que ces outils deviennent banals, un détail passe souvent sous les radars des comités de direction : ces systèmes sont structurellement vulnérables.

Ce ne sont pas des logiciels classiques, avec un code verrouillé et audité. Ce sont des boîtes noires statistiques, entraînées sur des masses de données. Cela ouvre la porte à trois types de menaces qu’on voit déjà poindre :

  • des prompt injections, où une requête malicieuse peut détourner un chatbot de sa mission ;
  • le data poisoning, plus subtil, qui consiste à introduire de fausses données dès l’entraînement ;
  • et le model extraction, qui permet de reconstituer un modèle propriétaire en l’interrogeant méthodiquement.

La nouveauté ? Ces attaques ne plantent pas seulement un système : elles peuvent servir à voler une stratégie, manipuler des marchés ou fragiliser une institution.

Quand les cas concrets deviennent difficiles à ignorer

En 2023, une banque asiatique a dû couper l’accès à ChatGPT pour ses employés après avoir découvert que des informations clients sensibles avaient été partagées avec l’outil. Dans la santé, des chercheurs ont montré qu’il suffisait de reformuler habilement des questions pour pousser un modèle à fournir des diagnostics erronés. Même l’OTAN a reconnu, du bout des lèvres, que ses premiers tests de robustesse sur l’IA de défense avaient révélé des failles critiques.

Ce n’est plus de la science-fiction. C’est une réalité qui coûte déjà cher à certains.

Le business de la sécurité IA : la prochaine ruée vers l’or

On assiste à un changement de paradigme. Jusqu’ici, l’IA servait aux spécialistes de cybersécurité pour détecter les menaces. Désormais, c’est l’IA elle-même qui doit être protégée.

Les investisseurs ont flairé l’opportunité : CrowdStrike a mis la main sur Pangea, une start-up spécialisée dans la détection d’attaques contre les modèles. Aux États-Unis, le NIST propose déjà un cadre pour évaluer les risques spécifiques à l’IA. Et les grands acteurs du cloud accumulent discrètement des brevets sur la sécurisation des modèles.

Bref, un marché est en train de naître – et il sera colossal.

Régulation : ce qui se prépare en coulisse

En Europe, l’AI Act est souvent présenté comme un texte de protection du citoyen. Mais les discussions en cours laissent entrevoir un volet sécurité plus musclé : audits obligatoires, tests de pénétration, traçabilité des données d’entraînement. Certains commissaires parlent même d’une agence dédiée, sur le modèle de l’ENISA.

Pour les dirigeants, cela signifie une chose simple : le coût de conformité va grimper. Mais il y a un revers positif : ceux qui auront anticipé ces normes se retrouveront avec un avantage compétitif sur leurs rivaux.

L’angle mort : la supply chain algorithmique

Un dirigeant imagine souvent qu’un modèle d’IA acheté à un grand fournisseur est “clé en main”. La réalité est bien plus complexe : ce sont des assemblages. Un modèle pré-entraîné aux États-Unis, relié par API à une brique logicielle tierce, nourri de données achetées à des sources plus ou moins transparentes.

Chaque maillon est une faille potentielle. C’est la grande zone d’ombre de la gouvernance IA actuelle : beaucoup d’entreprises pensent être protégées, alors que leur supply chain algorithmique est une passoire.

Ce que les décideurs devraient engager dès aujourd’hui

Il ne s’agit pas de refaire le catalogue des bonnes pratiques en cybersécurité, mais d’ajuster la focale :

  • Cartographier les usages internes de l’IA (qui utilise quoi, avec quelles données).
  • Exiger des fournisseurs une transparence contractuelle sur leurs modèles et leurs protections.
  • Monter une cellule de red teaming IA, même légère, pour tester les scénarios hostiles.
  • Former les équipes : une simple requête maladroite d’un collaborateur peut ouvrir une brèche.

Ces démarches coûtent infiniment moins cher aujourd’hui que lorsqu’elles deviendront obligatoires ou qu’une faille sera publique.

Menace ou opportunité ?

Il y a vingt ans, Internet a obligé les entreprises à se réinventer sous la contrainte de la cybersécurité. L’histoire est en train de se répéter avec l’IA. La différence, c’est que cette fois, les attaques sont plus discrètes, plus sophistiquées et plus difficiles à détecter.

Rester spectateur serait une erreur stratégique. Les organisations qui traitent la sécurité IA non comme un coût, mais comme un investissement dans la résilience, transformeront cette menace en levier de confiance – et donc en avantage compétitif.

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page