une main qui tient une guitare

Perspectives

Utilisation responsable de l’intelligence artificielle : meilleures pratiques pour les gestionnaires d’actifs canadiens

À la lumière des attentes réglementaires toujours plus précises en matière d’utilisation de l’intelligence artificielle (« IA »), l’Autorité des marchés financiers (« AMF ») et la Commission des valeurs mobilières de l'Ontario (« CVMO ») fournissent des conseils précieux quant aux meilleures pratiques à adopter par les gestionnaires d’actifs canadiens. Cet article résume pour vous ces meilleures pratiques à connaître.

Risques et possibilités que soulève actuellement l’IA, selon ChatGPT

Les gestionnaires d’actifs, les autorités de réglementation et les gouvernements continuent d’évaluer les risques et les possibilités que présente l’intelligence artificielle sur les marchés financiers. De nombreux clients de BLG étudient activement la possibilité et la façon d’intégrer l’IA dans leurs processus d’affaires, de conformité et d’investissement. Cette analyse s’inscrit dans un contexte de progrès technologiques fulgurants, d’un cadre réglementaire en constante évolution et de marchés complexes.

Demondons à ChatGPT

Pour nous amuser un peu, nous avons décidé de demander à ChatGPT de nous dire quels sont les plus grands risques encourus par les gestionnaires d’actifs lorsqu’ils utilisent l’IA. La réponse reçue n’est pas si mal : ChatGPT met en évidence un grand nombre de préoccupations parmi celles qui ont incité l’AMF et la CVMO à publier récemment des avis sur l’utilisation de l’IA dans le secteur financier.

Pour les gestionnaires d’actifs, les conséquences inattendues que pourraient  entraîner la complexité et l’évolution rapide de la technologie de l’IA constituent le plus grand risque lié à l’utilisation de l’IA. [Traduction libre]

ChatGPT cite également les risques suivants associés à une confiance excessive accordée à l’IA :

  • le risqué associé au modèle
  • la qualité des données et la partialité
  • la conformité réglementaire
  • le risque associé à l’exploitation
  • le risqué en matière d'éthique et de réputation
  • le capital humain et le manque de compétences

Pour faire face à ces risques, les gestionnaires d’actifs doivent adopter un cadre complet de gestion des risques qui englobe la validation des modèles, la gouvernance des données, la conformité réglementaire, la résilience opérationnelle, les considérations éthiques et la gestion des talents. Ce cadre devrait accorder la priorité à la transparence, à l'imputabilité et à l’utilisation responsable de l’IA en vue d’atténuer les inconvénients potentiels de l’adoption de l’IA et de maximiser ses avantages pour la prise de décision en matière d’investissement et les résultats pour les clients. [Traduction libre]

Sommaire des meilleures pratiques

Dans l’ensemble et indépendamment de l’avis de ChatGPT , nous voyons émerger certains thèmes communs pour les meilleures pratiques en matière d’IA dans l’industrie, à savoir :

  • la nécessité de disposer de données de qualité;
  • la conception réfléchie de l’IA;
  • les cadres éthiques;
  • la transparence;
  • la protection de la vie privée;
  • les processus de gouvernance propres à l’IA et la compréhension interne de l’IA, qui rendront possibles la justification et la surveillance.

Ces meilleures pratiques sont généralement conformes au cadre proposé par le gouvernement du Canada dans la Loi sur l’intelligence artificielle et les données (« LIAD »), qui fait actuellement l’objet d’un examen à la Chambre des communes dans le cadre du projet de loi C‑27. BLG publiait en octobre 2023 un article à l’intention des clients au sujet de la LIAD : Projet de loi C‑27 : Prochaines modifications à la législation sur la protection de la vie privée et sur l’intelligence artificielle.

Survol des publications sur l’IA : AMF et CVMO

Document de l’AMF

Dans le présent bulletin, nous extrapolons sur ce que nos clients peuvent apprendre des publications et rapports sur l’IA récemment publiés par les autorités de réglementation, en mettant l’accent sur un document de réflexion et de discussion de l’AMF intitulé Meilleures pratiques pour l’utilisation responsable de l’IA dans le secteur financier (le « document de l’AMF »).

Le document de l’AMF présente les attentes du Québec en ce qui concerne le développement et la mise en œuvre de systèmes d’IA par les parties prenantes du secteur financier de la province. Ces parties prenantes comprennent les institutions financières, les gestionnaires de fonds d’investissement, les courtiers et conseillers, les cabinets, sociétés autonomes et représentants autonomes, les agents d’évaluation du crédit, ainsi que les autres sociétés et professionnels assujettis aux lois administrées par l’AMF (désignés comme « intervenants financiers » dans le document de l’AMF, mais comme « entreprises » dans cet article, par souci de simplicité).

Le document de l’AMF est disponible pour commentaires publics dans le cadre d’un processus de consultation qui se terminera le 14 juin 2024. Par conséquent, le document de l’AMF n’impose actuellement aucune nouvelle exigence aux entreprises, mais il est probable qu’il soit finalisé, dans une version modifiée, sous forme de lignes directrices et de meilleures pratiques dans un avenir proche.

Nous encourageons toutes les entreprises concernées et intéressées à présenter leurs observations sur le document de l’AMF  afin de s’assurer que les risques et possibilités propres à leur secteur soient pris en compte.

Rapport sur l’IA

Le présent bulletin fait également référence aux conclusions d’un rapport de la CVMO et d’Ernst & Young S.R.L./S.E.N.C.R.L. publié à la fin de 2023, L’IA au sein des marchés financiers – explorer les cas d’utilisation en Ontario (le « rapport sur l’IA »). Conjointement avec le document de l’AMF, nous estimons que ces documents définissent des attentes instructives quant à l’utilisation de l’IA sur les marchés financiers canadiens.

Le rapport sur l’IA indique que les banques d’investissement, les gestionnaires de fonds et les sociétés de services financiers adoptent des solutions d’IA pour trois raisons principales :

  1. améliorer l’efficacité
  2. générer des revenus
  3. gérer les risques

Le rapport sur l’IA indique qu’en date d’octobre 2023, les entreprises se servent principalement de l’IA pour rehausser leurs produits et services existants plutôt que d’en créer ou d’en ajouter de nouveaux. Les entreprises ont également tendance à donner la priorité aux systèmes d’IA à faible risque, tels que ceux liés à la négociation et la surveillance, plutôt qu’à ceux nécessitant une plus grande supervision humaine, par exemple en matière de prévision du prix des actifs.

En outre, le rapport sur l’IA présente les défis particuliers que les solutions d’IA posent aux acteurs des marchés financiers, dont bon nombre rejoignent clairement les sujets de préoccupation abordés dans le document de l’AMF. Il s’agit notamment de ce qui suit :

  • l’explicabilité des systèmes d’IA
  • la difficulté de traiter diverses sources de données
  • les cadres de gouvernance propres à l’IA
  • les considérations éthiques
  • les coûts
  • la stabilité du marché
  • les modèles d’exploitation et la culture résultant de la perturbation technologique.

Analyse du document de l’AMF

Compte tenu des risques et des possibilités liés à l’utilisation de l’IA soulevés dans le document de l’AMF et le rapport sur l’IA, nous recommandons fortement aux clients de lire attentivement ce qui suit et de se demander si 1) les recommandations et les réflexions présentées dans le document de l’AMF peuvent et doivent représenter les meilleures pratiques, et 2) si votre entreprise peut ou sera en mesure d’adopter ces meilleures pratiques pour favoriser l’utilisation de l’IA.

Nous prévoyons que ces propositions de meilleures pratiques, une fois dans leur forme définitive, constitueront les principes directeurs de l’utilisation de l’IA pour l’ensemble des Autorités canadiennes en valeurs mobilières (« ACVM »).

Bien qu’elle reconnaisse que les systèmes d’IA offrent de nombreuses possibilités qui pourraient apporter des bénéfices aux consommateurs et aux entreprises, l’AMF propose 30 meilleures pratiques applicables à tous les systèmes d’IA mis en œuvre par les entreprises. Un système d’IA est défini comme un système technologique qui, de manière autonome ou partiellement autonome, traite des données liées à l’activité humaine par l’utilisation d’algorithmes génétiques, de réseaux neuronaux, d’apprentissage automatique ou d’autres techniques pour générer du contenu, faire des prédictions ou des recommandations ou prendre des décisions.

À court terme, nous prévoyons que les ACVM continueront de surveiller les façons dont l’IA est utilisée dans les services financiers et de partager de l’information à cet égard et que les entreprises et leurs fournisseurs de services peuvent jouer un rôle clé dans l’établissement de meilleures pratiques à l’échelle de l’industrie qui favoriseront l’utilisation responsable de l’IA.

Le document de l’AMF aborde les grands thèmes suivants concernant l’utilisation de l’IA. Nous avons divisé les 30 recommandations particulières parmi les rubriques pour en faciliter la consultation, thème par thème.

Protection des consommateurs

  1. Utiliser l’IA dans l’intérêt supérieur  des consommateurs
  2. Respecter la vie privée des consommateurs
  3. Accroître l’autonomie des consommateurs
  4. Traiter les consommateurs avec équité
  5. Gérer les conflits d’intérêts au mieux des intérêts des consommateurs
  6. Consulter les consommateurs appelés à utiliser un système d’IA

Les entreprises devraient s’assurer que l’utilisation des systèmes d’IA se fait dans l’intérêt supérieur des consommateurs et qu’elle est conforme aux lois applicables encadrant la protection de la vie privée. L’AMF souligne que les entreprises devraient clairement aviser les consommateurs si ces derniers interagissent avec des systèmes d’IA qui se présentent comme des êtres humains et qu’elles devraient obtenir le consentement des consommateurs pour la collecte et l’utilisation de leurs données. Toute demande de consentement devrait décrire, en termes simples, l’objectif des systèmes d’IA, la nature des données recueillies et toute intrusion possible dans la vie privée des consommateurs, comme la surveillance de leur comportement.

L’entraînement d’un système d’IA devrait être effectué avec des données représentatives de la population visée par le système et ne reflétant pas de biais provenant, par exemple, de pratiques discriminatoires. Les entreprises devraient identifier les groupes vulnérables et évaluer l’incidence possible d’un système d’IA sur ces groupes dès la phase de conception de ce système.

Transparence envers les consommateurs et le public

  1. Divulguer des informations sur le cadre de la conception et de l’utilisation de l’IA
  2. Divulguer des informations sur l’utilisation de l’IA dans les produits et services
  3. Expliquer les résultats qui concernent un consommateur
  4. Offrir aux consommateurs des canaux de communication et des mécanismes d’assistance et de compensation

Les consommateurs devraient avoir accès à l’information nécessaire pour pouvoir évaluer les avantages et les risques associés à l’utilisation de l’IA dans le contexte de l’acquisition d’un produit ou service financier, notamment dans la prise de décision s’y afférant. Les consommateurs devraient également avoir la possibilité de demander une explication du processus et des principaux facteurs qui ont mené aux résultats ou à la décision donnés par le système d’IA. Ils devraient avoir la possibilité de demander que ces résultats ou décisions puissent être révisés par une personne compétente qui est en mesure d’expliquer le fonctionnement du système d’IA et qui leur permettra de faire valoir leurs arguments pour contester les résultats ou la décision. Une attention particulière devrait être portée aux consommateurs vulnérables.

Pertinence des systèmes d’IA

  1. Justifier chaque cas d’utilisation de l’IA
  2. Privilégier le traitement le plus simple et le plus facilement explicable

Les entreprises devraient s’assurer que l’utilisation des systèmes d’IA est appropriée et justifiable dans les circonstances, en tenant compte de la population cible et des résultats souhaités. Les entreprises devraient également s’assurer que les avantages liés à l’utilisation de l’IA sont supérieurs aux risques et aux préjudices prévisibles, et que l’utilisation de l’IA mène, de façon générale, à l’obtention de meilleurs résultats que ceux obtenus sans son utilisation ou avec l’utilisation de technologies plus simples et plus facilement explicables. Le document de l’AMF n’indique pas clairement si la réduction du coût des services d’investissement ou de conseils sera considérée comme « menant à l’obtention de meilleurs résultats » qui justifient l’utilisation de l’IA.

Responsabilité

  1. Assumer la responsabilité des actions et des décisions d’un système d’IA
  2. Responsabiliser les employés et dirigeants en ce qui a trait à l’utilisation de l’IA
  3. Mettre en œuvre un contrôle humain proportionnel aux risques du système d’IA

Malgré l’utilisation de l’IA, les entreprises demeurent responsables et en contrôle de la surveillance. Les entreprises ne doivent pas tenter d’attribuer une responsabilité quelconque aux systèmes d’IA. À cette fin, les entreprises sont responsables de tous les résultats et de tous les préjudices causés par un système d’IA, y compris les systèmes acquis auprès d’une tierce partie, et leurs employés et dirigeants devraient être sensibilisés au fait qu’ils demeurent imputables de leurs actions et de leurs décisions.

Les entreprises devraient  mettre en œuvre des contrôles humains, y compris la révision des décisions des systèmes d’IA qui affectent négativement l’octroi d’un produit ou d’un service financier à un consommateur, ou toute autre décision ayant une incidence élevée sur le bien-être financier du consommateur. Cela nécessitera des ressources suffisamment informées et dotées des compétences appropriées pour examiner et/ou superviser les décisions complexes prises par ces systèmes d’IA.

Conception et utilisation de l’IA

  1. Encadrer la conception et l’utilisation de systèmes d’IA
  2. Établir un code d’éthique visant la conception et l’utilisation de l’IA
  3. Créer un environnement favorable à la transparence et à la divulgation
  4. Établir une approche uniforme dans la conception, le déploiement et la surveillance d’un système d’IA
  5. Faciliter la création d’équipes de travail diversifiées
  6. Soumettre les systèmes d’IA acquis d’une tierce partie à un contrôle diligent
  7. Utiliser l’IA d’une manière qui permette l’atteinte des objectifs de développement durable

L’AMF souligne la nécessité d’un cadre de gouvernance approprié, d’une clarté des rôles et des responsabilités et d’un cadre éthique clair. Les entreprises devraient établir des codes éthiques pour l’utilisation de l’IA qui soient expliqués en termes simples aux employés auxquels ils s’appliquent et qui prévoient des sanctions en cas de non-respect. En plus de veiller à ce que les entreprises disposent de ressources adéquates en matière d’IA (ces équipes devraient être non seulement diversifiées en ce qui concerne le genre, la culture et l’âge, mais également du point de vue professionnel et des compétences), les rôles des dirigeants de l’entité financière devraient être clairement définis.

Dans le cadre de l’obligation des entreprises de superviser leurs fournisseurs de services tiers, il convient de tenir compte de certaines considérations en matière de diligence lorsqu’elles retiennent les services d’un tiers en matière d’IA ou lorsqu’elles supervisent la prestation de services d’IA. Les ententes contractuelles devraient prévoir des droits d’audit, des niveaux de service et des mécanismes de recours clairs.

L’AMF souligne également l’importance de permettre que les préoccupations liées à l’IA soient exprimées de manière anonyme et sans crainte de représailles, en vue de renforcer la transparence et la compréhension. Les entreprises qui souhaitent en savoir plus sur la gouvernance de l’IA peuvent consulter le bulletin Déchiffrer demain : l’abécédaire sur la gouvernance de l’IA de BLG.

Risques liés à l’IA

  1. Évaluer les risques liés à l’utilisation d’un système d’IA
  2. Assurer la sécurité des systèmes d’IA
  3. Gouverner les données utilisées par les systèmes d’IA
  4. Gérer les risques liés aux modèles d’IA
  5. Effectuer une analyse d’impact et tester un système d’IA
  6. Surveiller la performance d’un système d’IA sur une base continue
  7. Auditer régulièrement les systèmes d’IA
  8. Former les employés et les utilisateurs sur l’IA

Les entreprises devraient adopter des cadres pour atténuer les risques associés aux systèmes d’IA et contrôler leur performance de manière appropriée. Le cadre de gestion du risque en matière d’intelligence artificielle (Artificial Intelligence Risk Management Framework) du National Institute of Standards and Technology (« NIST ») constitue un exemple de ce type de cadre de gestion des risques, abordé dans le bulletin Un nouveau cadre du NIST fournit des orientations sur la gouvernance et la gestion du risque en matière d’IA de BLG.

Les entreprises devraient mettre en œuvre des mesures visant à assurer l’intégrité des données utilisées en intrant ou utilisées pour entraîner les systèmes d’IA, notamment par le biais de processus d’évaluation de la représentativité, de la qualité et de la présence de biais discriminatoires dans les données. Une attention particulière devrait être portée aux risques découlant d’interconnexions entre les systèmes d’IA, par exemple lorsque les résultats d’un système d’IA sont utilisés en intrant dans un autre système d’IA. Les entreprises devraient s’assurer que les employés et les dirigeants contribuant à la conception et au déploiement de systèmes d’IA maintiennent un niveau de compétence technique approprié et une connaissance suffisante des risques éthiques pour effectuer leurs tâches adéquatement.

Une analyse d’impact devrait être réalisée pendant la phase de conception d’un système d’IA pour évaluer divers facteurs, notamment la pertinence de l'utilisation de l'IA dans ces circonstances, si des intrusions dans la vie privée d’un consommateur sont justifiées, ainsi que la nature et les résultats d’éventuels conflits d’intérêts. La réalisation d’analyses d’impact devrait être confiée à une équipe compétente (notamment dans le domaine dans lequel les systèmes d’IA seront utilisés), multidisciplinaire et diversifiée, formée sur les enjeux éthiques reliés à l’IA.

Les entreprises devront donc adopter une approche interdisciplinaire à l’égard de l’adoption de l’IA et auront besoin d’employés ou de conseillers possédant les compétences nécessaires pour procéder à une analyse nuancée du système d’IA. Les entreprises peuvent également avoir besoin d’un soutien supplémentaire pour comprendre, gérer, contrôler et communiquer tout conflit d’intérêts important pouvant résulter de l’utilisation de systèmes d’IA, car ceux-ci peuvent ne pas s’avérer aussi évidents que des conflits d’intérêts liés à des investissements, par exemple.

Les entreprises devraient s’assurer que des systèmes appropriés sont en place pour surveiller les systèmes d’IA de façon à pouvoir détecter rapidement un fonctionnement anormal (tel qu’une dérive matérielle du modèle ou une dégradation de la qualité des données utilisées en intrant), des résultats discriminatoires ou inéquitables, ou une utilisation inappropriée ou à des fins nuisibles. Une fonctionnalité de coupe-circuit pour interrompre l’utilisation d’un système d’IA si sa performance se détériore au-delà d’un seuil donné devrait être mise en place et testée périodiquement. Enfin, des audits des systèmes d’IA devraient être effectués de manière cohérente avec l’incidence des systèmes d’IA sur les consommateurs ou des risques liés à leur utilisation.

Communiquez avec nous

Veuillez communiquer avec l’une des personnes mentionnées ci‑dessous ou avec votre avocat habituel du Groupe Gestion des investissements de BLG si vous avez des questions au sujet du document de l’AMF et de la façon dont ces éventuelles meilleures pratiques pourraient avoir une incidence sur vous, ou au sujet de l’adoption et de l’utilisation de l’IA de façon plus générale.

BLG est un chef de file de confiance dans l’évolution rapide de l’IA et peut vous aider à comprendre ce que cela signifie pour votre organisation en termes de réglementation, de diligence et d’adoption, de supervision, d’intégration et d’opérations commerciales continues.


1 ChatGPT, « What is the biggest risk to asset managers of using AI? », 1er mars 2024.

Principaux contacts