Comment Anthropic peut protéger son IA d'écriture d'exploits des mauvaises mains
210 % d’augmentation des incidents liés aux IA d’attaque en un an : la menace est réelle Dans un contexte où les systèmes d’intelligence artificielle (IA) deviennent de plus en plus capables d’identifier et d’exploiter des vulnérabilités critiques, la question se pose : Anthropic peut-il garder son IA d’écriture d’exploits hors de portée des acteurs malveillants ? En 2025, le rapport de l’ENISA indiquait que 38 % des organisations avaient détecté des tentatives d’exploitation automatisées provenant de modèles génératifs, et le Forum Sécurité 2024 soulignait une hausse de 210 % des incidents liés aux IA d’attaque.
By Lysandre Beauchêne
lire plus