• Groupe

BNP Paribas cosigne le livre blanc "Contrôle des risques des systèmes d’intelligence artificielle"

Publié le 19.12.2022

BNP Paribas a participé à la rédaction d’un livre blanc « Contrôle des risques des systèmes d’Intelligence Artificielle », piloté par l’association Hub France IA avec le concours de La Banque Postale et la Société Générale. En 2024, ce document a été complété d'un second traitant de l’opérationnalisation de la gestion des risques des systèmes d’Intelligence Artificielle.

Mise à jour septembre 2024

Le partenariat avec Hub France IA 

Dans le cadre de ce partenariat, les équipes Group Data Office et AIR Tech, regroupant les équipes d'IA de RISK et de Compliance de BNP Paribas ont participé au groupe de travail « Banque et Auditabilité » dont l’objectif était de proposer une méthode systématique et opérationnelle d’identification des risques spécifiques des systèmes d’Intelligence Artificielle (IA), et à proposer des pistes de remédiation.

Cette collaboration a fait intervenir des acteurs des trois lignes de défense des dispositifs de contrôle interne des banques, et est un excellent exemple de collaboration entre pairs pour échanger autour de principes communs. Les bénéfices de cette réflexion sur l’Intelligence Artificielle concernent non seulement le secteur financier, mais plus largement tout acteur mettant en œuvre des systèmes d’Intelligence Artificielle. 

Qu’est-ce que l’IA chez BNP Paribas ?

Le développement et le déploiement de l’Intelligence Artificielle sont un des leviers du plan stratégique 2025 de la Banque. Plus de 500 cas d’usage sont déjà en production et le Groupe s’est fixé l’objectif d’avoir d’ici 2025 un millier de cas d’usages en production dont une centaine sur de l’IA générative qui permettra de dégager 500 millions d’euros de création de valeur

Les équipes AI & Analytics de BNP Paribas participent toutes à cet effort. Les usages couvrent aussi bien des problématiques d’amélioration d’efficacité opérationnelle, de gestion des risques que de création de valeur client. Plus largement, le travail collectif sur l’IA implique de rassembler les experts de domaines variés tels que les ressources humaines, le juridique, les risques, la conformité, favorisant une compréhension globale des implications de l’IA. .

Zoom sur la gestion des risques liés à l’IA

Dans la majorité des industries, bancaires ou non, et ce depuis une dizaine d’année au moins, les cas d’usages de l’Intelligence Artificielle ont été démultipliés, conduisant à l’émergence de nouveaux risques. Parmi eux, l’utilisation de l’IA pour des activités illégales ou malveillantes (deepfake, phishing, manipulation…) mais également les risques de reproduire des biais ou d’opacité de fonctionnement.

La démarche du groupe de travail avec le France Hub IA a ainsi consisté à décrire le processus de développement et de déploiement des solutions d’IA dans son ensemble, puis les risques spécifiques apportés ou exacerbés par l’IA, et enfin d’analyser plus spécifiquement certains risques sélectionnés sur la base de leur importance et de leur lien spécifique avec l’IA. Un inventaire des risques à chaque étape du processus de développement et déploiement d’un système d’IA a donc été établi, puis débattu pour aboutir à une vision commune des risques. 

Le résultat de ces travaux est disponible dans le livre blanc « Contrôle des risques des systèmes d’Intelligence Artificielle » accessible ici  :

Contrôle des risques des systèmes d’Intelligence Artificielle

En 2024, un second document est venu le compléter pour traiter plus spécifiquement de l’opérationnalisation de la gestion des risques des systèmes d’IA :

OPERATIONNALISER LA GESTION DES RISQUES ET DES SYSTEMES D'INTELLIGENCE ARTIFICIELLE

Une anticipation de la future réglementation européenne

Le début des travaux a également coïncidé avec la première publication de l’AI Act publié par la Commission Européenne le 21 Avril 2021. Ce fut l’opportunité pour les membres du groupe de travail de contribuer à une réponse commune à cette proposition de réglementation et d’échanger plus généralement sur le contexte de gestion des risques propres aux systèmes d’Intelligence Artificielle.

Quels enseignements tirer de cette collaboration ?

" Le sujet des risques et de l’auditabilité des modèles d’intelligence artificielle est au cœur des préoccupations de la Banque au vu de l’essor récent de ces techniques au sein des institutions financières et compte tenu de notre forte culture dans la gestion des risques de modèles. Collaborer ouvertement avec nos homologues au sein d’autres grands groupes bancaires m’a donc semblé très utile.

Ces échanges ont permis d’affiner notre compréhension mutuelle de la sévérité relative des divers risques liés à l’intelligence artificielle. Ce qui m’a étonnée, mais aussi confortée, c’est que nous étions dans une large mesure très alignés : au-delà des risques de modélisation, les principales sources de risques perçus sont certainement la gestion de la donnée et la méconnaissance des forces et faiblesses de cet outil que représente l’IA.

L’explicabilité est un des thèmes que nous avons particulièrement explorés chez BNP Paribas, essentiel pour s’assurer de la bonne utilisation des modèles, de l’adoption, de la capacité à auditer, et plus globalement pour générer la confiance dans la solution.

Si la recherche universitaire sur l'IA explicable a été prolifique ces dernières années, il n’y a encore que peu d’études sur l’insertion opérationnelle de telles méthodes. Nous avons affiné notre compréhension des besoins en terme d’explicabilité des personnes vouées à développer et utiliser ces outils au jour le jour."

Lea Deleris, BNP Paribas - RISK AIR

En savoir plus

" L’arrivée d’une réglementation européenne sur l’Intelligence Artificielle (AI Act) nous a amené à réfléchir aux éléments de l’IA qui posent questions aujourd’hui. Il y a notamment aujourd’hui une plus grande prise de conscience qu’une adoption réussie de l’IA n’est pas uniquement quantitative, en nombre d’utilisateurs ou en performance du modèle IA par exemple, mais aussi qualitative, c’est-à-dire que les utilisateurs ou les régulateurs doivent avoir confiance à la fois dans la technologie et la manière dont elle est mise en œuvre afin de respecter des principes fondamentaux d’équité et de transparence par exemple. C’est pour cela qu’on parle d’« IA responsable »."

Jérôme Lebecq, BNP Paribas - Group Data Office, Data Science Office

Pour s'abonner à notre newsletter, c'est ici !

Choisissez vos thématiques préférées et la fréquence d'envoi