La cybersécurité pour contrer les risques de l’IA

Un informaticien travaille sur son ordinateur.
iStock

L’évolution de l’intelligence artificielle (IA) soulève plusieurs questions en matière de cybersécurité, des interrogations qui seront abordées le 10 mai prochain lors d'un colloque du Congrès annuel de l’Acfas. Nous avons profité de l'occasion pour faire le point sur cette problématique, un sujet important à l’ère où le numérique est indissociable de nos vies.

Comme n’importe quelle technologie, l’intelligence artificielle peut avoir un apport tout aussi positif que négatif en matière de cybersécurité. Pierre-Martin Tardif, professeur agrégé à l’École de gestion de l’Université de Sherbrooke et membre du Groupe de recherche interdisciplinaire en cybersécurité (GRIC), met l’accent sur cette dualité importante.

« Le nucléaire peut servir à faire de l’électricité, à voir si vous avez une maladie, mais aussi à faire des bombes. C’est la même chose avec l’intelligence artificielle. Elle n’échappe pas à cette tendance, comme toutes les autres technologies : il peut y avoir de bonnes utilisations et des mauvaises », explique-t-il.

Selon le chercheur, il est important que l’intelligence artificielle évolue positivement, pour que les outils de protection soient toujours supérieurs aux risques engendrés par cette technologie émergente.

« Il faut que ça se suive. Ça prend des personnes qui gardent un œil vigilant pour assurer cet équilibre. Si jamais on dénote des retards, il faut travailler pour combler les lacunes dans ce sens. »

Il n’hésite pas à comparer la situation avec l’IA aux problématiques entourant l’arrivée des ordinateurs quantiques : pour faire face à celles-ci, les méthodes de cryptographie quantique doivent aussi être prêtes afin de protéger les systèmes qui seraient autrement vulnérables devant ces machines surpuissantes.

Selon le chercheur du GRIC, la cybersécurité passe aussi par l’éducation et la sensibilisation de la population.

Une des choses que l’on regarde beaucoup en cybersécurité, c’est que les gens en général soient sensibilisés et, au besoin, éduqués. Ce côté-là n’a pas suivi pendant un certain temps, avec les réseaux sociaux notamment, et l’on a vu des écarts.

Le professeur illustre ses propos en mentionnant l’hypertrucage vidéo, le fameux deepfake, qui pourrait être beaucoup plus dangereux si les citoyens et les citoyennes n’étaient pas au fait de cette technologie.

Récemment, un chercheur de Singapour a d’ailleurs développé un modèle d’intelligence artificielle qui peut détecter l’hypertrucage avec une efficacité de plus de 98 %. Ce genre d’initiative est un bel exemple d’utilisation positive de l’intelligence artificielle pour contrer un problème créé par la même technologie.

IA, données personnelles et manipulation

La gestion des données est bien au cœur des préoccupations des scientifiques quand il s’agit d’évaluer l’effet de l’intelligence artificielle sur la cybersécurité. 

Comme le scandale Cambridge Analytica l’a bien démontré, des modèles d’intelligence artificielle peuvent, entre autres, utiliser des agrégats de données personnelles pour tenter d’influencer les internautes.

« Avec l’intelligence artificielle, en analysant une masse de données, il est possible de trouver des façons de manipuler les gens », précise Pierre-Martin Tardif.

Les grandes entreprises technologiques détiennent le rôle principal en ce qui concerne la récolte de ces données, leur analyse et leur vente.

L’utilisation que l’on fait de nos données est multiple. On nous trace de partout. C’est comme ça que des entreprises comme Google font tout leur argent. Les gens le savent maintenant, il faut être prudent pour protéger notre citoyenneté numérique. 

Notre rapport à l’univers numérique est aussi affecté par l’information que l’on y consomme. Avec Internet et les réseaux sociaux, celle-ci est constante, rapide, et elle provient de partout. Il est plus facile que jamais de s’informer, mais encore faut-il avoir de bons réflexes pour discerner le vrai du faux.

On a pu constater durant la pandémie ou avec l’invasion de l’Ukraine que la désinformation, les discours haineux et la propagande se répandent très rapidement dans l’univers numérique.

« Il faut juste s’assurer que le point de vue que l’on développe avec ces informations soit le plus près possible de la réalité. Il y a beaucoup de manipulation de masse, sans même utiliser l’intelligence artificielle. »

La cybersécurité au Québec

Au Québec, les vols de données personnelles ont fait les manchettes à plusieurs reprises ces dernières années. Bien que ces événements aient mis en lumière des failles importantes en ce qui concerne la cybersécurité de plusieurs entreprises, Pierre-Martin Tardif voit le travail effectué dans la province avec optimisme. 

« En matière de cybersécurité et d’intelligence artificielle, je pense que le Québec tire très bien son épingle du jeu. Nous nous organisons pour suivre la vague, et parfois même la devancer. C’est comme pour l’environnement : nous sommes beaucoup plus conscientisés qu’il y a 20 ans. Il y a encore beaucoup de travail à faire, mais les choses évoluent. »

Le professeur cite la Loi modernisant des dispositions législatives en matière de protection des renseignements personnels (loi 25), qui encadre la gestion des données par les entreprises québécoises, comme un exemple de progrès intéressant en matière de cybersécurité pour la Belle Province. 

Les entreprises québécoises vont devoir informer les citoyens de toute utilisation secondaire des données qu’elles font. Si quelqu’un décide de faire des choses en cachette, c’est les tribunaux qui s’en mêlent. C’est très fort. Je n’ai pas vu ça à beaucoup d’endroits dans le monde. 

Le colloque du 10 mai présenté à l’occasion du Congrès de l’Acfas abordera notamment ces aspects légaux en lien avec la cybersécurité et l’intelligence artificielle. La conférence se veut accessible, et elle rassemblera des spécialistes de domaines diversifiés.

« L’idée, c’est de mettre ensemble des personnes issues de différents milieux, c’est d’avoir un moment pour se rencontrer et échanger. L’an dernier, on parlait de citoyenneté numérique. Cette année, on parle de l’intelligence artificielle. On veut aussi que la conférence soit la plus accessible possible, et non pas dans un langage scientifique fermé », conclut Pierre-Martin Tardif.