L'agence américaine de cybersécurité CISA mène le premier exercice sur les cyber-incidents d'IA démontrant la réponse aux cyber-incidents provoqués par l'IA
La semaine dernière, l’Agence américaine de cybersécurité et de sécurité des infrastructures (CISA) a mené son tout premier exercice théorique axé sur les incidents de cybersécurité liés à l’IA. Organisé par le Joint Cyber Defense Collaborative (JCDC), l’exercice de quatre heures visait à simuler une cyberattaque sur un système compatible avec l’IA. Les participants, dont plus de 50 experts en IA issus d'agences gouvernementales et de partenaires industriels, se sont réunis dans les locaux de Microsoft à Reston, en Virginie, pour collaborer à la réponse.
L’exercice a été conçu pour aborder des scénarios dans lesquels la confidentialité, l’intégrité ou la disponibilité d’un système d’IA, ou de tout système créé ou activé par l’IA, était menacée. Cela comprenait des perturbations importantes du comportement du système qui ont nécessité une intervention immédiate. Les principaux objectifs de l'exercice étaient d'identifier les opportunités de partage d'informations, d'établir des protocoles d'engagement public-privé et d'améliorer la collaboration opérationnelle.
La CISA a défini plusieurs objectifs principaux : améliorer les pratiques de partage d'informations pour les cyberincidents liés à l'IA, évaluer les procédures de réponse et les meilleures pratiques des participants, et identifier les domaines à améliorer dans les plans de réponse, le partage d'informations et la résilience. L'exercice a également évalué les capacités, les besoins et les priorités de collaboration entre les agences gouvernementales, l'industrie et les partenaires internationaux.
Les informations acquises lors de l’exercice seront utilisées pour développer un manuel de collaboration en cas d’incident de sécurité IA. Ce manuel vise à améliorer la collaboration opérationnelle et à sensibiliser le gouvernement, l'industrie et d'autres partenaires. La CISA prévoit de mener un deuxième exercice théorique pour tester et affiner ce manuel avec des entreprises d'IA et des organisations du secteur des infrastructures critiques qui utilisent déjà l'IA dans leurs opérations.
La directrice de la CISA, Jen Easterly, a souligné l'importance de cet exercice pour atténuer les risques liés à l'IA et a souligné l'importance de développer des produits d'IA sécurisés. Elle a exprimé son enthousiasme quant à la poursuite de la collaboration avec les partenaires pour garantir la sécurité et la résilience des systèmes d’IA.





