• page de garde
  • Blog
  • Politique de confidentialité
  • À propos de nous
  • French
AccueilArticle → L'angoisse des scientifiques : des malwares dans les réseaux neuronaux
L'angoisse des scientifiques : des malwares dans les réseaux neuronaux

L'angoisse des scientifiques : des malwares dans les réseaux neuronaux

Les réseaux neuronaux peuvent être infectés silencieusement par des malwares sans que cela ne dégrade leurs performances. Aucune solution de sécurité ne peut les détecter. Inquiétant.

Vous aimez nos Actualités ?Inscrivez-vous à la lettre d'information La quotidienne pour recevoir nos toutes dernières Actualités une fois par jour.Cela vous intéressera aussi

[EN VIDÉO] Qu'est-ce qu'une cyberattaque ?Avec le développement d'Internet et du cloud, les cyberattaques sont de plus en plus fréquentes et perfectionnées. Qui est derrière ces attaques et dans quel but ? Quelles sont les méthodes des hackers et quelles sont les cyberattaques les plus massives ?

L'intelligence artificielle est capable de prouesses. Elle sait reconnaître des objets sur les photos, générer du texte semblant avoir été rédigé par un humain et devient de plus en plus performante pour ce qui est de la reconnaissance vocale. Mais, selon les chercheurs de l'Université de Californie, de San Diego et de l'Université de l'Illinois, les réseaux de neurones, qui constituent l'IA, pourraient également servir à dissimuler de redoutables malwares qui passeraient entre les mailles du filet des solutions de sécurité. Il faut dire que, par leur nature même, ces réseaux sont conçus pour ingurgiter des quantités énormes de données pour consolider leur apprentissage. Ils peuvent tout aussi bien assimiler du code malveillant.

Ce code est placé dans des données semblant inoffensives, selon la méthode de la stéganographie, c'est dire l'art de faire passer inaperçu un message dans un autre message. Pour prouver leur théorie, les chercheurs ont utilisé ce qu'on appelle désormais un EvilModel, une suite de code malveillant pesant 26,8 Mo. Ils l'ont inoculé dans une IA convolutive. Ils ont choisi AlexNet, une IA de 178 Mo spécialisée dans la reconnaissance des images. Fragmenté, ce code malveillant n'a pas vraiment perturbé le réseau neuronal puisque la perte de précision de celui-ci a été limitée à 1 %, selon leurs mesures de performances.

Cela signifie que l'utilisateur ne peut pas soupçonner la présence d'un problème puisque le réseau neuronal ne faillit pas à ses tâches habituelles. Et surtout, aucun des antivirus n'a été capable de détecter la présence de ces 26,8 Mo de malwares. Après cet entraînement intégrant ce code, les chercheurs ont ensuite augmenté le volume de malwares à 36,9 Mo. Entraîné avec cette nouvelle base de données, les performances ont décliné seulement de 10 %, ce qui reste suffisant pour faire illusion. Ils ont également testé EvilModel sur d'autres IA, notamment VGG, Resnet, Inception et Mobilenet et obtenus des résultats similaires.

Voici un EvilModel, une technique qui permet d’inoculer du code malveillant au plus profond d’un réseau neuronal, sans qu’il ne soit détectable. L'activation de la charge utile se fait sur l'appareil de la victime préalablement contaminé par un malware inoffensif. © DR

Menace dans l'Intelligence artificielle

La contamination par du code malveillant reste inoffensive tant que l'utilisateur n'appelle pas cette IA avec une application elle aussi préalablement vérolée par un malware. C'est ce dernier qui va permettre d'activer la charge virale et exécuter, par exemple, un ransomware sur l'appareil de la victime. Le souci est que les IA se trouvent de plus en plus imbriquées dans les applications courantes. Elles pourraient bien devenir le terrain de jeu préféré des pirates étant donné l'impossibilité de détecter ce code malveillant qui ne vient pas altérer les fonctions del'Intelligence artificielle.

Pour inoculer le malware à une Intelligence artificielle, l'attaquant pourrait proposer des modèles d'apprentissage fonctionnels vérolés en les hébergeant sur des plateformes comme GitHub ou TorchHub. D'une façon un peu plus vicieuse, comme les données envoyées par les applications de l'utilisateur servent aussi à l'apprentissage de l'IA, le pirate pourrait également la contaminer via des mises à jour vérolées de ces applications. Comme ces passagers clandestins sont indétectables, la seule façon d'éviter leur activation va reposer sur la détection d'un malware en sommeil sur l'appareil de l'utilisateur, ce qui est loin d'être gagné.

Intéressé par ce que vous venez de lire ?Abonnez-vous à la lettre d'information La quotidienne : nos dernières actualités du jour. Toutes nos lettres d’information

!

Merci pour votre inscription.Heureux de vous compter parmi nos lecteurs !

Lien externeEvilModel: Hiding Malware Inside of Neural Network ModelsDéfinitions associéesQue signifie "stéganographie" ?C'est quoi, un malware ?Un antivirus, c'est quoi ?Que signifie "base de données" ?Qu'est-ce qu'un réseau neuronal ?