Pouvez-vous nous faire un état des lieux de l’utilisation de l’IA dans le secteur bancaire ?
Le secteur de la finance dans son ensemble est resté éloigné des IA non consensuelles. Loin des systèmes autonomes complexes et évolutifs, il utilise donc surtout des algorithmes opérationnels et d’automatisation qui se contentent de simuler l’intelligence humaine pour la réalisation de tâches simples et répétitives. Nous en utilisons d’ailleurs nous-mêmes chez Linedata dans plusieurs de nos solutions, pour les produits de leasing notamment. Selon l’analyse 2021 de Gartner, l'apprentissage automatique reste la technologie d'intelligence artificielle la plus adoptée dans le secteur de la banque et de la finance. Les principaux moteurs de l'adoption de l'IA sont à ce titre l'amélioration de l'expérience client (43 %), les initiatives d'optimisation des coûts (24 %) et l'amélioration de la gestion des risques (19 %).
On entend beaucoup parler de la notion d’IA de confiance. Qu’est-ce que c’est ?
La Commission européenne a proposé le 21 avril dernier la mise en place du tout premier cadre juridique sur l’intelligence artificielle, pour accompagner le développement de cette technologie et s’assurer que ses champs d’applications soient bien définis et mieux compris du grand public. Il s’agit d’une excellente nouvelle pour les particuliers en matière de respect de droits fondamentaux mais aussi pour les entreprises européennes lesquelles ont besoin, pour innover et investir à bon escient, d’y voir clair en matière de règlementations et de pratiques autour de l’IA (commerciales, concurrentielles, éthiques…).
Dans un contexte de concurrence mondiale particulièrement exacerbée et d’usages encore opaques en matière d’utilisation des données, c’est même vital ! La notion d’IA de confiance regroupe en réalité plusieurs exigences qui convergent vers un même objectif : faire de l’IA un outil objectif, fiable et maitrisé par l’Homme. Parmi ces exigences, portées par la Commission Européenne, on retrouve celle de la nécessaire transparence des algorithmes d’une part et celle de l’explicabilité et de la pédagogie d’autre part. Il est devenu indispensable de savoir quand l’IA est utilisée, comment elle fonctionne et parvient au résultat final délivré, d’autant que de nombreux algorithmes fonctionnent comme des boites noires au sein desquelles on ne peut rien observer. A ces premières exigences, s’ajoute la volonté d’intégrer plus d’éthique, pour avoir l’assurance que certains biais discriminants n’ont pas été reproduits ou introduits au cours de l’analyse.
Qu’est-ce que cela implique concrètement ?
L’Europe a choisi de fonder le degré d’exigence éthique d’une IA en fonction du risque qui lui est associé, donc tous les algorithmes sont potentiellement concernés. Il parait assez évident que les IA militaires ou médicales seront particulièrement scrutées, mais en réalité beaucoup d’IA utilisées quotidiennement peuvent avoir des conséquences négatives sur l’humain si elles ne sont pas suffisamment encadrées. Ainsi dans le secteur RH, l’Europe cite explicitement les algorithmes utilisés dans le cadre de recrutements. En ce qui concerne la finance, ce sont celles utilisées pour l’établissement de taux de solvabilité (Credit Scoring en Anglais) ou d’octroi de crédit qui seront à réévaluer.
Imaginons un demandeur de crédit disposant de toutes les garanties nécessaires mais résidant dans une zone géographique dont les demandes de crédit des habitants sont souvent rejetées. Même si lesdites demandes étaient refusées pour des motifs légitimes, une IA mal entraînée pourrait interpréter cette coïncidence statistique comme une règle systématique et discriminer de facto et sans raison valable toute nouvelle demande en provenance de ce lieu. Jusque-là, les algorithmes n’étaient pas conçus pour expliquer leurs résultats, et de telles différences de traitement pouvaient ainsi ne jamais être mises en évidence. C’est donc une excellente nouvelle de voir des exigences d’éthique, de transparence et d’explicabilité faire leur apparition. Les professionnels du secteur seront ainsi mieux accompagnés dans les processus de prise de décision, et leurs clients auront l’assurance de bénéficier de traitements uniformes et non discriminants.
Pensez-vous que cela puisse engendrer d’autres évolutions ?
Bien sûr, car cette règlementation à venir permettra d’inciter à la modernisation des IA utilisées. Elles seront plus en phase avec la réalité des cas et permettront d’arriver à des résultats plus affinés, davantage individualisés. Dans le cadre précis d’une demande de crédit par exemple, l’attention particulière qui sera portée aux critères d’accessibilité pourrait être revue. Ainsi, pour avoir des garanties en matière de pérennité des revenus du demandeur, on peut imaginer que d’autres formes de contrats autres que le CDI soient mieux prises en compte par l’IA de l’établissement bancaire dans l’analyse préalable des pièces du dossier de prêt.
Concernant l’engagement quotidien des entreprises en matière d’IA de confiance, on perçoit déjà les nombreuses initiatives qui, en France comme en Europe, naissent ça et là pour concrètement participer à garantir le meilleur niveau d’exigence en matière de recours à l’IA. Cela passe notamment par la mise en place de grilles internes d’évaluation des solutions IA développées, avec plusieurs niveaux de mesures (codes utilisés, formation requise de l’équipe, observations des pratiques métiers, contrôles croisés etc.). D’autres intègrent une démarche éthique dès le développement des algorithmes, et ce, en étroite collaboration avec les équipes impliquées dans l’entreprise que ce soit au niveau du conseil que du contrôle : chargés de projet ML ou automatisation, responsables innovations, développeurs, DSI, RSSI, le DPO etc.
Plus généralement, les entreprises sont nombreuses à participer à l’élaboration d’instances représentatives pour leur secteur et/ou à l’animation de programmes pédagogiques dédiés. C’est notre cas puisque le groupe Linedata participera notamment à décrypter les pratiques d’IA au sein du Syntec le 11 juin prochain.
Tout comme on voit déjà émerger les notions de Security by design (qui consiste à intégrer la notion de sécurité dès la conception d’un programme), ou de Privacy by default (qui garantit le respect des données personnelles), il faudrait penser à mettre en place l’Ethic by default.
Le secteur de la finance dans son ensemble est resté éloigné des IA non consensuelles. Loin des systèmes autonomes complexes et évolutifs, il utilise donc surtout des algorithmes opérationnels et d’automatisation qui se contentent de simuler l’intelligence humaine pour la réalisation de tâches simples et répétitives. Nous en utilisons d’ailleurs nous-mêmes chez Linedata dans plusieurs de nos solutions, pour les produits de leasing notamment. Selon l’analyse 2021 de Gartner, l'apprentissage automatique reste la technologie d'intelligence artificielle la plus adoptée dans le secteur de la banque et de la finance. Les principaux moteurs de l'adoption de l'IA sont à ce titre l'amélioration de l'expérience client (43 %), les initiatives d'optimisation des coûts (24 %) et l'amélioration de la gestion des risques (19 %).
On entend beaucoup parler de la notion d’IA de confiance. Qu’est-ce que c’est ?
La Commission européenne a proposé le 21 avril dernier la mise en place du tout premier cadre juridique sur l’intelligence artificielle, pour accompagner le développement de cette technologie et s’assurer que ses champs d’applications soient bien définis et mieux compris du grand public. Il s’agit d’une excellente nouvelle pour les particuliers en matière de respect de droits fondamentaux mais aussi pour les entreprises européennes lesquelles ont besoin, pour innover et investir à bon escient, d’y voir clair en matière de règlementations et de pratiques autour de l’IA (commerciales, concurrentielles, éthiques…).
Dans un contexte de concurrence mondiale particulièrement exacerbée et d’usages encore opaques en matière d’utilisation des données, c’est même vital ! La notion d’IA de confiance regroupe en réalité plusieurs exigences qui convergent vers un même objectif : faire de l’IA un outil objectif, fiable et maitrisé par l’Homme. Parmi ces exigences, portées par la Commission Européenne, on retrouve celle de la nécessaire transparence des algorithmes d’une part et celle de l’explicabilité et de la pédagogie d’autre part. Il est devenu indispensable de savoir quand l’IA est utilisée, comment elle fonctionne et parvient au résultat final délivré, d’autant que de nombreux algorithmes fonctionnent comme des boites noires au sein desquelles on ne peut rien observer. A ces premières exigences, s’ajoute la volonté d’intégrer plus d’éthique, pour avoir l’assurance que certains biais discriminants n’ont pas été reproduits ou introduits au cours de l’analyse.
Qu’est-ce que cela implique concrètement ?
L’Europe a choisi de fonder le degré d’exigence éthique d’une IA en fonction du risque qui lui est associé, donc tous les algorithmes sont potentiellement concernés. Il parait assez évident que les IA militaires ou médicales seront particulièrement scrutées, mais en réalité beaucoup d’IA utilisées quotidiennement peuvent avoir des conséquences négatives sur l’humain si elles ne sont pas suffisamment encadrées. Ainsi dans le secteur RH, l’Europe cite explicitement les algorithmes utilisés dans le cadre de recrutements. En ce qui concerne la finance, ce sont celles utilisées pour l’établissement de taux de solvabilité (Credit Scoring en Anglais) ou d’octroi de crédit qui seront à réévaluer.
Imaginons un demandeur de crédit disposant de toutes les garanties nécessaires mais résidant dans une zone géographique dont les demandes de crédit des habitants sont souvent rejetées. Même si lesdites demandes étaient refusées pour des motifs légitimes, une IA mal entraînée pourrait interpréter cette coïncidence statistique comme une règle systématique et discriminer de facto et sans raison valable toute nouvelle demande en provenance de ce lieu. Jusque-là, les algorithmes n’étaient pas conçus pour expliquer leurs résultats, et de telles différences de traitement pouvaient ainsi ne jamais être mises en évidence. C’est donc une excellente nouvelle de voir des exigences d’éthique, de transparence et d’explicabilité faire leur apparition. Les professionnels du secteur seront ainsi mieux accompagnés dans les processus de prise de décision, et leurs clients auront l’assurance de bénéficier de traitements uniformes et non discriminants.
Pensez-vous que cela puisse engendrer d’autres évolutions ?
Bien sûr, car cette règlementation à venir permettra d’inciter à la modernisation des IA utilisées. Elles seront plus en phase avec la réalité des cas et permettront d’arriver à des résultats plus affinés, davantage individualisés. Dans le cadre précis d’une demande de crédit par exemple, l’attention particulière qui sera portée aux critères d’accessibilité pourrait être revue. Ainsi, pour avoir des garanties en matière de pérennité des revenus du demandeur, on peut imaginer que d’autres formes de contrats autres que le CDI soient mieux prises en compte par l’IA de l’établissement bancaire dans l’analyse préalable des pièces du dossier de prêt.
Concernant l’engagement quotidien des entreprises en matière d’IA de confiance, on perçoit déjà les nombreuses initiatives qui, en France comme en Europe, naissent ça et là pour concrètement participer à garantir le meilleur niveau d’exigence en matière de recours à l’IA. Cela passe notamment par la mise en place de grilles internes d’évaluation des solutions IA développées, avec plusieurs niveaux de mesures (codes utilisés, formation requise de l’équipe, observations des pratiques métiers, contrôles croisés etc.). D’autres intègrent une démarche éthique dès le développement des algorithmes, et ce, en étroite collaboration avec les équipes impliquées dans l’entreprise que ce soit au niveau du conseil que du contrôle : chargés de projet ML ou automatisation, responsables innovations, développeurs, DSI, RSSI, le DPO etc.
Plus généralement, les entreprises sont nombreuses à participer à l’élaboration d’instances représentatives pour leur secteur et/ou à l’animation de programmes pédagogiques dédiés. C’est notre cas puisque le groupe Linedata participera notamment à décrypter les pratiques d’IA au sein du Syntec le 11 juin prochain.
Tout comme on voit déjà émerger les notions de Security by design (qui consiste à intégrer la notion de sécurité dès la conception d’un programme), ou de Privacy by default (qui garantit le respect des données personnelles), il faudrait penser à mettre en place l’Ethic by default.
Autres articles
-
Agenda | Finyear est partenaire de The Finance Magnates London Summit 2024
-
Sagard NewGen acquiert FuturMaster, éditeur leader de solutions SaaS en Supply Chain Planning et Revenue Growth Management, aux côtés de son équipe dirigeante
-
Coinbase et Visa, un partenariat pour des transferts en temps réel
-
Nominations | Meanings Capital Partners renforce son équipe avec l'arrivée de Malina Calvat en qualité de Chargée d'Affaires et Cédric Livet au poste d'Analyste
-
Blockchain Life 2024 a réuni la communauté crypto de 120 pays à Dubaï