Aller au contenu principal
Ministère de l'Économie, de l'Innovation et de l'Énergie logoMinistère de l'Économie, de l'Innovation et de l'Énergie logoMinistère de l'Économie, de l'Innovation et de l'Énergie
English
Nous joindre
  • Accueil
  • Ministère
  • English
  • Nous joindre
  • Visiteurs hors Québec
Engager, innover, propulser.
  • Accueil
  • Ministère
  • Visiteurs hors Québec
  • Obtenir du financement
    Achat d'équipementAgrandissement, constructionCommercialisationDémarrage d'entrepriseDesign
    Économie numériqueEnvironnementExportationMain-d'oeuvreNouveau produit, nouvelle technologie
    Promotion de la science et de l'innovationR-D et innovationRéalisation d'une étudeValorisation et transfert de la recherche
  • S'améliorer
    Accompagnement-conseil stratégiqueAdministration et managementDéveloppement durableExportationFinances
    Transformation numériqueMarketing et venteProductionR-D et innovationRessources humaines
  • Créer des liens
    Créneaux d'excellence du QuébecProjets de recherche internationauxRépertoires d'entreprisesRéseaux de recherche
  • Se conformer
    Accords commerciauxBoissons alcooliquesCoopérativesHeures et jours d'ouverture des commerces de détailLitiges commerciaux
    Intégration de contenu à faible intensité carbone dans l’essence et le carburant dieselInterdiction de recherche et de production d’hydrocarburesMatériaux de rembourrage et articles rembourrésProjet d’une puissance de 5 MW et plus
  • Exporter
    Accompagnement spécialisé à l’exportationCalendrier des activitésCoordonnées
  • S'informer
    Allègement réglementaire et administratifCapital de risqueCarrièresCoopérativesCréneaux d'excellence du Québec
    Entrepreneuriat collectifEntrepreneuriatEntreprisesContrats publicsPar pays
    Par régionPar secteur d'activitéPolitiques, stratégies, plans d'actionPrix et concoursPromotion de la science et de l'innovation
    Propriété intellectuelleRecherche et innovationSécurité civileZones d'innovation
 
07 décembre 2023 - Économie numérique

Les entreprises s’intéressent à l’IA générative pour améliorer leurs cyberdéfenses : Malheureusement les cyberpirates font le même choix

RollCall note que les entreprises adoptent des outils de cybersécurité basés sur l’intelligence artificielle (IA) générative pour se défendre contre les nouvelles cyberattaques utilisant la même technologie. En effet, RollCall nous apprend que peu de temps après l’introduction de ChatGPT, des acteurs malveillants ont lancé FraudGPT. Il s’agirait d’un agent conversationnel, disponible sur le Web clandestin (dark web) et offrant aux criminels la possibilité de créer des courriels d’hameçonnage, de décrypter des mots de passe et même de créer du code et des logiciels malveillants.

Aux dires des experts, cependant, l’utilisation de ChatGPT comme outil de cyberdéfense exigerait des efforts supplémentaires pour protéger, notamment, les données et les algorithmes qui sont au cœur des modèles d’IA générative. Cette préoccupation serait partagée par les législateurs, qui s’inquiéteraient déjà des implications que l’IA peut avoir pour la cybersécurité.

RollCall mentionne qu’en septembre dernier, le président d’une commission du renseignement du Sénat américain, Mark Warner, aurait déclaré que les modèles génératifs pouvaient aider les programmeurs à identifier les erreurs de codage, ce qui contribuerait à améliorer la cybersécurité. En même temps, ces modèles génératifs peuvent aussi facilement aider les cybercriminels.  

Ces avertissements semblent pertinents alors que, selon une enquête d’IBM auprès des dirigeants d’entreprise, 84 % des répondants ont déclaré leur préférence pour les solutions de cybersécurité recourant à l’IA générative par rapport aux solutions conventionnelles. Selon les prévisions de l’enquête d’IBM, d’ici 2025, les dépenses de sécurité basées sur l’IA devraient être 116 % plus élevées qu’en 2021.

Par ailleurs, RollCall note que l’Agence pour les projets de recherche avancée de défense du Pentagone (Defense Advanced Research Projects Agency, DARPA) a lancé en août un concours, d’une durée de deux ans, pour concevoir des outils basés sur l’IA capables de corriger les bogues des logiciels couramment utilisés. L’objectif serait de concevoir des systèmes capables de défendre automatiquement tout type de logiciel contre les attaques. Enfin, IBM a annoncé se trouver engagée dans le développement de solutions de cybersécurité basées sur des modèles d’IA générative afin d’augmenter la performance et la productivité des systèmes censés répondre aux cybermenaces.

RollCall constate qu’il y a déjà des entreprises sur le marché qui proposent des outils de cybersécurité fondés sur l’utilisation de l’IA générative. C’est le cas de Darktrace, une société de cybersécurité qui utilise cette technologie pour prédire les attaques potentielles. Plus précisément, cette entreprise conçoit des modèles d’IA d’autoapprentissage qui sont capables de comprendre le comportement de l’environnement dans lequel ils sont déployés. En cartographiant les activités des individus et des groupes de pairs ainsi que les cas aberrants, les systèmes intelligents sont capables de détecter les écarts par rapport à la normale, qui déclenchent une alerte auprès des experts en sécurité.

RollCall note que les entreprises adoptent des outils de cybersécurité basés sur l’intelligence artificielle (IA) générative pour se défendre contre les nouvelles cyberattaques utilisant la même technologie. En effet, RollCall nous apprend que peu de temps après l’introduction de ChatGPT, des acteurs malveillants ont lancé FraudGPT. Il s’agirait d’un agent conversationnel, disponible sur le Web clandestin (dark web) et offrant aux criminels la possibilité de créer des courriels d’hameçonnage, de décrypter des mots de passe et même de créer du code et des logiciels malveillants.

Aux dires des experts, cependant, l’utilisation de ChatGPT comme outil de cyberdéfense exigerait des efforts supplémentaires pour protéger, notamment, les données et les algorithmes qui sont au cœur des modèles d’IA générative. Cette préoccupation serait partagée par les législateurs, qui s’inquiéteraient déjà des implications que l’IA peut avoir pour la cybersécurité.

RollCall mentionne qu’en septembre dernier, le président d’une commission du renseignement du Sénat américain, Mark Warner, aurait déclaré que les modèles génératifs pouvaient aider les programmeurs à identifier les erreurs de codage, ce qui contribuerait à améliorer la cybersécurité. En même temps, ces modèles génératifs peuvent aussi facilement aider les cybercriminels.  

Ces avertissements semblent pertinents alors que, selon une enquête d’IBM auprès des dirigeants d’entreprise, 84 % des répondants ont déclaré leur préférence pour les solutions de cybersécurité recourant à l’IA générative par rapport aux solutions conventionnelles. Selon les prévisions de l’enquête d’IBM, d’ici 2025, les dépenses de sécurité basées sur l’IA devraient être 116 % plus élevées qu’en 2021.

Par ailleurs, RollCall note que l’Agence pour les projets de recherche avancée de défense du Pentagone (Defense Advanced Research Projects Agency, DARPA) a lancé en août un concours, d’une durée de deux ans, pour concevoir des outils basés sur l’IA capables de corriger les bogues des logiciels couramment utilisés. L’objectif serait de concevoir des systèmes capables de défendre automatiquement tout type de logiciel contre les attaques. Enfin, IBM a annoncé se trouver engagée dans le développement de solutions de cybersécurité basées sur des modèles d’IA générative afin d’augmenter la performance et la productivité des systèmes censés répondre aux cybermenaces.

RollCall constate qu’il y a déjà des entreprises sur le marché qui proposent des outils de cybersécurité fondés sur l’utilisation de l’IA générative. C’est le cas de Darktrace, une société de cybersécurité qui utilise cette technologie pour prédire les attaques potentielles. Plus précisément, cette entreprise conçoit des modèles d’IA d’autoapprentissage qui sont capables de comprendre le comportement de l’environnement dans lequel ils sont déployés. En cartographiant les activités des individus et des groupes de pairs ainsi que les cas aberrants, les systèmes intelligents sont capables de détecter les écarts par rapport à la normale, qui déclenchent une alerte auprès des experts en sécurité.

Abonnez-vous
à notre infolettre

Regroupement par thèmes

Accès à l'informationBulletins et veille stratégiqueFormationsFormulairesGuides et outilsLois et règlementsProgrammesPublicationsRépertoiresServices
Dernière mise à jour : 26 juin 2023
Suivez-nous
  • Facebook
  • Instagram
  • LinkedIn
  • YouTube
  • Twitter
  • Newsletter
  • Accès à l'information
  • Accessibilité
  • Carrières
  • Infolettres
  • Présence du Ministère sur les médias sociaux
  • Plan du site
  • Politique de confidentialité
Gouvernement du Québec

© Gouvernement du Québec, 2025