Top 5 des risques d'attaques avec IA
L’IA n’est plus seulement une préoccupation pour demain : elle est profondément intégrée dans l’offensive et la défense. Avec l’émergence de nouveaux exploits, l’utilisation massive de modèles open source et des attaquants toujours plus inventifs, les risques que nous évoquions se matérialisent désormais.
Dans cet article, nous passons en revue 5 grands vecteurs de risque liés à l’IA et la façon dont WatchGuard peut vous aider à anticiper et contrer ces menaces.
1. Deepfakes et fraudes par identité synthétique
Les attaques par « deepfake » sont passées de l’exception aux menaces régulières. Mi-2025, le groupe nord-coréen BlueNoroff (également connu sous le nom TA444) a utilisé des appels vidéo deepfake d’un dirigeant sur Zoom pour tromper des employés et faire installer un malware.
Le clonage vocal est encore plus dangereux : des modèles comme VALLE de Microsoft, ElevenLabs ou leurs alternatives open-source permettent de cloner une voix en quelques secondes d’audio. Les attaquants imitent des figures de confiance (directeurs, responsables d’équipe) pour inciter le personnel à procéder à des transferts d’argent, partager des identifiants ou divulguer des données sensibles.
Les défenseurs déploient des outils comme Vastav AI qui analysent les médias, les mouvements faciaux et les métadonnées audio pour détecter une falsification. Mais la détection arrive souvent trop tard : l’attaque est déjà lancée.
2. Injection de prompt, jailbreak et exploits « zero-click »
L’injection de prompt et le « jailbreak » des modèles restent des vulnérabilités critiques. En 2025, on observe davantage d’attaques « zero-click » d’injection de prompt, où la simple réception d’un email ou d’une invitation calendrier déclenche un exploit sans que l’utilisateur ait à cliquer.
Un cas marquant : EchoLeak (CVE‑2025‑32711), une vulnérabilité d’injection de prompt zero-click dans Microsoft 365 Copilot. Un email conçu exploitait le proxy Teams, auto-chargeait des images et des références Markdown pour déclencher une escalade de privilèges et une exfiltration de données sans action de l’utilisateur.
Des études montrent que la majorité des applications bancaires mobiles ou de chat financier (31 sur 36 testées) sont vulnérables aux injections de prompt.
3. Ransomware assisté par IA et malware polymorphes
En 2025, le ransomware a évolué : les cadres d’attaque sont de plus en plus assistés par IA, adaptant les charges utiles en temps réel. Un proof-of-concept baptisé «Ransomware 3.0» a démontré comment un prototype orchestré par IA pouvait planifier, muter et exécuter ses étapes depuis des prompts intégrés dans le binaire.
Plus tard, PromptLock, identifié par ESET, est le premier ransomware IA connu fonctionnant localement : il génère des scripts dynamiques pour énumérer des fichiers, exfiltrer des données et chiffrer des systèmes sur Windows, macOS et Linux.
Ces menaces contournent les antivirus traditionnels et la détection heuristique, imposant aux défenseurs de miser davantage sur l’analyse comportementale et la détection d’anomalies plutôt que sur la simple correspondance de signatures.
4. LLM obscurs, chaîne d’approvisionnement et « Shadow AI »
Les attaquants exploitent de plus en plus des LLM obscurs («dark LLMs») ou des modèles open source modifiés à des fins malveillantes. Ils abusent aussi d’outils tiers et d’APIs non vérifiés. La chaîne d’approvisionnement est désormais un vecteur majeur de menace.
Par exemple, Anthropic alerte que des hackers utilisent leur modèle Claude pour automatiser la reconnaissance, la collecte d’identifiants et d’autres phases de pénétration. Ces campagnes touchent secteur public, santé, éducation, et aboutissent souvent à des demandes de rançon pour des données volées.
Les «dark LLMs» sont souvent dénudés de toute garde-fou : vendus sur des forums underground, ils deviennent de vrais assistants du crime. Le «Shadow AI» – l’usage non autorisé de systèmes IA par les employés – aggrave le tout, car les équipes IT n’ont ni visibilité ni contrôle.
5. Exfiltration de données, empoisonnement adversarial et intégrité des modèles
Au-delà de l’entrée malveillante ou du malware, ce sont les modèles d’IA eux-mêmes qui sont attaqués. L’empoisonnement adversarial («adversarial poisoning») injecte des données corrompues dans les pipelines d’entraînement ou de fine-tuning, de sorte que les modèles fonctionnent mal une fois déployés.
Une recherche récente sur des attaques d’“advertisement embedding” a démontré que les attaquants peuvent empoisonner des checkpoints de modèle pour que leurs sorties contiennent des promotions malveillantes ou des instructions cachées.
Alors que les agents IA s’intègrent aux workflows (copilotes de navigateur, suites productivité, plateformes de chat), ils sont contraints d’exécuter des actions non autorisées : installer des malwares ou exposer des données via des canaux d’entrée compromis.
Regard vers l’avenir : l’adversaire agentique vs le SOC autonome
La prochaine phase de l’IA en cybersécurité ne se résumera pas à un phishing plus rapide ou un ransomware polymorphe. Elle portera sur l’agency.
Les adversaires IA agentiques agiront comme des mercenaires digitaux. Au lieu de scripts à usage unique, ils lanceront des campagnes continues : sonder des systèmes d’identité pour comptes faibles, pivoter dans les applications cloud, exfiltrer des données tout en adaptant chaque étape à la défense rencontrée. Ils chaîneront automatiquement des outils, lanceront des milliers de micro-attaques en parallèle, et coordonneront des chaînes d’attaque à l’échelle des supply-chains.
De l’autre côté, les défenseurs accélèrent vers le SOC autonome. Plutôt que des humains noyés d’alertes, des centres d’opérations alimentés par IA ingéreront la télémétrie des endpoints, réseaux, cloud et identités. Ils décideront en temps réel des signaux pertinents, prendront des actions de confinement et ne feront remonter à l’humain que ce qui nécessite un jugement. La promesse : qu’un directeur IT de district scolaire ou une PME avec deux admin puisse opérer avec l’envergure d’un SOC du Fortune 100.
La question de la décennie : qui prendra l’avantage en premier ? Si les attaquants maîtrisent l’IA agentique avant que les défenseurs déploient à grande échelle des SOC autonomes, nous pourrions voir une vague de compromissions à haute vitesse qui submergera les réponses traditionnelles. Mais si les défenseurs intègrent l’automatisation profondément et intelligemment, l’IA pourrait enfin inverser l’équation économique de la cybersécurité – rendant la défense moins coûteuse, plus rapide et plus scalable que l’attaque.
Conclusion
L’IA a franchi le seuil : elle est déjà arme et bouclier. Les menaces sont diversifiées – deepfakes, ransomware IA, supply-chain, intégrité des modèles – et évoluent en permanence. Pour rester à l’avant-garde, les organisations doivent repenser leur stratégie de défense, adopter des solutions IA avancées, et collaborer avec des partenaires comme WatchGuard pour renforcer leur posture.
En tant que leader de la cybersécurité, WatchGuard est prêt à vous accompagner dans cette nouvelle ère.