L’intelligence artificielle (IA), ce « buzzword » dont on parle depuis plusieurs années est aujourd’hui en train de connaitre un tournant déterminant dans les technologies qui nous entourent. L’intelligence artificielle la plus couramment utilisée, repose sur l’utilisation d’algorithmes dans l’optique de déterminer la ou les meilleures solutions, on parle de Machine Learning ou de Deep Learning. On est bien loin du fantasme d’une machine entièrement autonome qui est capable d’apprendre par elle-même, d’avoir une réflexion ou même une conscience.
En effet, l’intelligence artificielle telle que nous l’utilisons repose sur l’utilisation de réseaux de neurones et d’algorithmes probabilistes ou déterministes. Ces derniers se nourrissent de données, permettant le traitement d’un grand volume d’informations.
Si le test de Turing[1] est un bon indicateur de performance pour l’utilisation de chatbot, les performances de ces algorithmes dans le monde de la sécurité restent plus difficiles à mesurer. Loin des discours marketing qui prédisent une nouvelle révolution, la réalité est en fait beaucoup moins fantasmatique quant à l’utilisation d’intelligence artificielle appliquée aux différents secteurs d’activité et notamment à la cybersécurité. Elle reste cependant un atout indéniable qui promet des changements potentiellement conséquents dans l’industrie.
Comment l’IA peut-elle s’appliquer à l’industrie de la sécurité ?
L’utilisation la plus couramment rencontrée se traduit par des mécanismes d’apprentissage permettant l’amélioration des détections ainsi que la corrélation automatisée d’évènements. On distingue 2 principales méthodes utilisées :
- Le Machine Learning qui est un sous domaine de l’intelligence artificielle, vise à « éduquer » une machine via des algorithmes d’apprentissage dans l’optique de définir le meilleur résultat ou de détecter un comportement malveillant dans le cas d’une application à la cybersécurité.
- Le Deep Learning ,qui est un sous domaine du Machine Learning, repose sur le traitement d’un plus grand nombre de données.
Cette approche est basée sur l’utilisation de statistiques générés à partir de données collectées. Plus le nombre de données est important plus les résultats seront optimaux. Ce principe s’applique à la sécurité avec la volumétrie des cyberattaques collectées et l’identification de mode opératoire. Il permet de déceler des anomalies sur un réseau via la multitude d’informations accumulées. A l’heure où le marché de la sécurité vit une pénurie de talents qualifiés, ces technologies d’IA représentent une valeur non négligeable pour renforcer les services de sécurité tout en minimisant les coûts.
Et la réelle révolution se trouve ici ! Accompagner les opérationnels, les personnes en charge des réponses sur incident, pour leur permettre d’optimiser leur temps de travail sur des attaques beaucoup plus complexes via l’assistance des algorithmes d’intelligence artificielle. Ils permettent en effet un gain de temps considérable sur l’analyse et l’élimination des faux positifs.
Si l’IA peut-être utilisée pour renforcer les méthodes de sécurité, peut-elle être utilisée à mauvais escient ?
Chaque révolution s’accompagne toujours de son lot de dérive et l’intelligence artificielle n’y échappe pas. En 2017, les premiers malwares embarquant des techniques d’évasion permettant le contournement d’algorithmes de Machine Learning ont vu le jour. Le ransomware Cerber[2] fut l’un des premiers à utiliser ce type de techniques en déposant des fichiers anodins sur les machines infectées pour noyer la charge malveillante et contourner la détection via le processus d’apprentissage des algorithmes. Il est toutefois à noter que les moteurs d’analyses classiques permettaient la détection. Ponctuellement, de nouvelles attaques sont découvertes embarquant de nouvelles méthodes pour contourner la sécurité.
En 2018, des chercheurs d’IBM ont publiés un papier académique lors de la conférence BlackHat[3] démontrant l’utilisation d’IA dans le cas d’une attaque. Leur malware, nommé Deep Locker était capable de camoufler sa charge malveillante et ne la libérait uniquement que si la cible initiale avait été atteinte. Cette recherche démontre une efficacité non seulement pour contourner les détections mais aussi pour atteindre une cible en particulier, permettant une attaque extrêmement ciblée.
Ces nouvelles technologies sont en train de changer le paysage des menaces ainsi que les modes opératoires utilisés par les attaquants.
Quelles sont les mesures mises en œuvre par les Etats pour la course à l’IA ?
Cette prise de conscience est générale et s’applique aussi bien pour les gouvernements. Fin novembre, le gouvernement français a annoncé un plan d’investissements de 665 millions d’euros dédié à l’intelligence artificielle sur trois ans[4]. Au programme, le soutien de 4 instituts interdisciplinaires dans les domaines de la santé, des transports, de l’énergie ainsi que la recherche et l’éducation, et une coopération avec les pays européens et les entreprises privées.
En filigrane de l’engagement du gouvernement, c’est le savoir-faire académique de la France qui sera mis à contribution pour renforcer les compétences des chercheurs, entreprises et étudiants en IA.
Si l’intelligence artificielle laisse entrevoir de nombreuses opportunités, elle demeure une technologie controversée, notamment en matière de cybersécurité. Les attaquants restent à l’affût des innovations technologiques pour développer des attaques de plus en plus sophistiquées. Entre de mauvaises mains, l’intelligence artificielle permettra des attaques beaucoup plus élaborées et évoluées.
Pour être préparé face à ces nouvelles attaques, l’utilisation de moyens de détection les plus avancés pourra devenir un atout indéniable pour renforcer les rangs des services de sécurité mais les machines sont bien loin de remplacer l’analyse et la projection de l’intelligence humaine.
[1] https://fr.wikipedia.org/wiki/Machine_de_Turing
[2] https://blog.trendmicro.com/trendlabs-security-intelligence/cerber-starts-evading-machine-learning/
[3] https://securityintelligence.com/deeplocker-how-ai-can-power-a-stealthy-new-breed-of-malware/
[4] https://www.liberation.fr/france/2018/11/28/intelligence-artificielle-le-gouvernement-degaine-son-plan_1694826