Aller au contenu principal
Ministère de l'Économie, de l'Innovation et de l'Énergie logoMinistère de l'Économie, de l'Innovation et de l'Énergie logoMinistère de l'Économie, de l'Innovation et de l'Énergie
English
Nous joindre
  • Accueil
  • Ministère
  • English
  • Nous joindre
  • Visiteurs hors Québec
Engager, innover, propulser.
  • Accueil
  • Ministère
  • Visiteurs hors Québec
  • Obtenir du financement
    Achat d'équipementAgrandissement, constructionCommercialisationDémarrage d'entrepriseDesign
    Économie numériqueEnvironnementExportationMain-d'oeuvreNouveau produit, nouvelle technologie
    Promotion de la science et de l'innovationR-D et innovationRéalisation d'une étudeValorisation et transfert de la recherche
  • S'améliorer
    Accompagnement-conseil stratégiqueAdministration et managementDéveloppement durableExportationFinances
    Transformation numériqueMarketing et venteProductionR-D et innovationRessources humaines
  • Créer des liens
    Créneaux et pôles d'excellenceProjets de recherche internationauxRépertoires d'entreprisesRéseaux de recherche
  • Se conformer
    Accords commerciauxBoissons alcooliquesCoopérativesHeures et jours d'ouverture des commerces de détailLitiges commerciaux
    Intégration de contenu à faible intensité carbone dans l’essence et le carburant dieselInterdiction de recherche et de production d’hydrocarburesMatériaux de rembourrage et articles rembourrésProjet d’une puissance de 5 MW et plus
  • Exporter
    Accompagnement spécialisé à l’exportationCalendrier des activitésCoordonnées
  • S'informer
    Allègement réglementaire et administratifCapital de risqueCarrièresCoopérativesCréneaux et pôles d'excellence
    Entrepreneuriat collectifEntrepreneuriatEntreprisesContrats publicsPar pays
    Par régionPar secteur d'activitéPolitiques, stratégies, plans d'actionPrix et concoursPromotion de la science et de l'innovation
    Propriété intellectuelleRecherche et innovationSécurité civileZones d'innovation
 
26 juin 2023 - Gouvernance économique

L’OCDE et le CIGI suivent les implications politiques de l’intelligence artificielle générative

Alors que ChatGPT est devenu un nom familier grâce à ses avantages apparents, les gouvernements et d’autres entités prennent des mesures pour contenir les risques qui y sont associés, soutient un blogue de l’OCDE.

Les décideurs politiques veulent un environnement politique favorable tout en atténuant les risques des modèles de langage d’intelligence artificielle (IA). Les modèles de langage d’IA présentent des risques pour les droits de la personne, la vie privée, l’équité, la fiabilité, la sécurité et la sûreté. Les modèles de langage d’IA peuvent aider les acteurs à manipuler les opinions à grande échelle et à automatiser la désinformation d’une manière qui peut menacer les valeurs démocratiques.

Ainsi, la poursuite du dialogue et de la recherche peut aider à atténuer les risques des modèles linguistiques complexes. Pour garantir que les avantages des technologies linguistiques seront largement partagés, les acteurs devront se préparer aux transitions économiques et doter les personnes des compétences nécessaires pour développer et utiliser des modèles linguistiques d’IA. Une coopération internationale, interdisciplinaire et multipartite pour des modèles de langage d’IA fiables est nécessaire afin de lutter contre les utilisations et les impacts néfastes.

Pour sa part, le président du Center for International Governance Innovation (CIGI), un groupe de réflexion canadien indépendant et non partisan sur la gouvernance mondiale, estime que les décideurs politiques ont des options limitées pour poursuivre la gouvernance mondiale de l’IA. Dans une allocution préparée pour le Council on Foreign Relations, il soutient que même le G7 n’est pas arrivé à un consensus sur la façon de procéder pour réglementer dans ces domaines. Essentiellement, deux écoles de pensée ont émergé : le premier groupe, dirigé par la France, l’Allemagne et l’Italie, adopte une approche large, fondée sur la loi et s’inspirant de la réglementation en vertu de la loi sur l’IA de l’Union européenne. Le Canada pourrait également se retrouver dans ce premier groupe, selon l’évolution de sa législation. Le deuxième groupe, dirigé par les États-Unis, le Japon et le Royaume-Uni, cherche à identifier des points plus étroits qui nécessitent une réglementation et à parvenir à une législation par l’entremise d’outils juridiques plus souples (bien que le projet de loi sur la responsabilité algorithmique des États-Unis constituerait une réglementation plus stricte s’il était adopté).

Une approche complémentaire, qui serait plus ascendante, pourrait avoir du potentiel, sur la base des leçons de la crise financière mondiale et de la création d’un groupe de coordination informel, le Conseil de stabilité financière. En effet, un « Conseil de stabilité numérique » habilité par les dirigeants du G7 ou un autre groupe informel à vocation technique pourrait mettre en place des processus multipartites pour coordonner les travaux sur la hiérarchisation des normes pour l’IA et assurer qu’il suit les dernières évolutions technologiques.

Une telle approche ne nécessiterait pas la création d’une nouvelle organisation ou la réforme des mandats des organisations existantes. La plupart des morceaux sont déjà en place et les organismes existants pourraient être mis à profit.

Alors que ChatGPT est devenu un nom familier grâce à ses avantages apparents, les gouvernements et d’autres entités prennent des mesures pour contenir les risques qui y sont associés, soutient un blogue de l’OCDE.

Les décideurs politiques veulent un environnement politique favorable tout en atténuant les risques des modèles de langage d’intelligence artificielle (IA). Les modèles de langage d’IA présentent des risques pour les droits de la personne, la vie privée, l’équité, la fiabilité, la sécurité et la sûreté. Les modèles de langage d’IA peuvent aider les acteurs à manipuler les opinions à grande échelle et à automatiser la désinformation d’une manière qui peut menacer les valeurs démocratiques.

Ainsi, la poursuite du dialogue et de la recherche peut aider à atténuer les risques des modèles linguistiques complexes. Pour garantir que les avantages des technologies linguistiques seront largement partagés, les acteurs devront se préparer aux transitions économiques et doter les personnes des compétences nécessaires pour développer et utiliser des modèles linguistiques d’IA. Une coopération internationale, interdisciplinaire et multipartite pour des modèles de langage d’IA fiables est nécessaire afin de lutter contre les utilisations et les impacts néfastes.

Pour sa part, le président du Center for International Governance Innovation (CIGI), un groupe de réflexion canadien indépendant et non partisan sur la gouvernance mondiale, estime que les décideurs politiques ont des options limitées pour poursuivre la gouvernance mondiale de l’IA. Dans une allocution préparée pour le Council on Foreign Relations, il soutient que même le G7 n’est pas arrivé à un consensus sur la façon de procéder pour réglementer dans ces domaines. Essentiellement, deux écoles de pensée ont émergé : le premier groupe, dirigé par la France, l’Allemagne et l’Italie, adopte une approche large, fondée sur la loi et s’inspirant de la réglementation en vertu de la loi sur l’IA de l’Union européenne. Le Canada pourrait également se retrouver dans ce premier groupe, selon l’évolution de sa législation. Le deuxième groupe, dirigé par les États-Unis, le Japon et le Royaume-Uni, cherche à identifier des points plus étroits qui nécessitent une réglementation et à parvenir à une législation par l’entremise d’outils juridiques plus souples (bien que le projet de loi sur la responsabilité algorithmique des États-Unis constituerait une réglementation plus stricte s’il était adopté).

Une approche complémentaire, qui serait plus ascendante, pourrait avoir du potentiel, sur la base des leçons de la crise financière mondiale et de la création d’un groupe de coordination informel, le Conseil de stabilité financière. En effet, un « Conseil de stabilité numérique » habilité par les dirigeants du G7 ou un autre groupe informel à vocation technique pourrait mettre en place des processus multipartites pour coordonner les travaux sur la hiérarchisation des normes pour l’IA et assurer qu’il suit les dernières évolutions technologiques.

Une telle approche ne nécessiterait pas la création d’une nouvelle organisation ou la réforme des mandats des organisations existantes. La plupart des morceaux sont déjà en place et les organismes existants pourraient être mis à profit.

Abonnez-vous
à notre infolettre

Regroupement par thèmes

Accès à l'informationBulletins et veille stratégiqueFormationsFormulairesGuides et outilsLois et règlementsProgrammesPublicationsRépertoiresServices
Dernière mise à jour : 26 juin 2023
Suivez-nous
  • Facebook
  • Instagram
  • LinkedIn
  • YouTube
  • Twitter
  • Newsletter
  • Accès à l'information
  • Accessibilité
  • Carrières
  • Infolettres
  • Présence du Ministère sur les médias sociaux
  • Plan du site
  • Politique de confidentialité
Gouvernement du Québec

© Gouvernement du Québec, 2025