Accueil | Economie | SnT Partnership Day : plus d’inclusion dans le monde de la finance

SnT Partnership Day : plus d’inclusion dans le monde de la finance


FinInclusion a profité du SnT Partnership Day pour présenter son outil permettant plus d’inclusion dans le monde de la finance. (Photo Hervé Montaigu)

FinInclusion a profité du SnT Partnership Day pour présenter son outil permettant plus d’inclusion dans le monde de la finance.

Tout le monde devrait avoir accès équitablement aux services de la finance», commence Ahmed Khanfer, chercheur au SerVal. Il est venu au SnT Partnership Day pour y présenter leur outil FinInclusion. Ce dernier vise à atténuer les biais discriminants dans les démarches auprès des institutions financières.

Les institutions financières ont recours, comme beaucoup d’autres milieux, à des logiciels pour écrire des algorithmes et exécuter certaines tâches. «Plus il y a recours aux logiciels, plus le risque de biais est élevé.» Ce qui provoque ces biais, c’est la manière dont les logiciels travaillent. Ils se basent sur des choses qui n’ont rien à voir pour créer des modèles. «Les logiciels font des corrélations erronées.»

Pour comprendre le phénomène, Ahmed Khanfer donne l’exemple d’un recrutement Amazon, touché par des biais sexistes. «Pour le poste demandé, il y avait une majorité de profils masculins dans les bases de données.» La machine en a alors déduit que les hommes étaient plus efficaces que les femmes, car plus nombreux. Résultat, l’algorithme ne sélectionnait que des CV de candidats masculins, excluant complétement les femmes du recrutement.

Le même problème peut être retrouvé dans des démarches financières. «Un homme aura plus de facilité à obtenir ce qu’il veut, alors qu’une femme devra faire plusieurs démarches avant d’y arriver.» Et le problème ne s’arrête pas aux biais sexistes. Tout y passe. Origine, couleur de peau ou même type de corps… Les logiciels font la part belle aux discriminations.

Un outil utile pour les banques

L’outil FinInclusion sert alors à détecter les biais, d’en identifier la cause pour les limiter ou, lorsque c’est possible, les éliminer. «Pour l’entraîner à détecter les biais, on lui montre beaucoup de données et on les mute, en remplaçant le genre masculin en féminin par exemple», explique Ahmed Khanfer. Pour corriger les données erronées, il y a plusieurs méthodes. Modifier la donnée ou l’effacer complètement, ajouter d’autres modèles au premier ou permettre aux algorithmes de donner une projection… «Tout dépend du type de biais.»

En plus de faire ça pour la recherche et la science, l’objectif de l’équipe de recherche SerVal est de donner leur outil aux banques, ou d’au moins les aider, pour qu’elles puissent détecter leurs biais discriminants et les corriger. «Nous avons, en soi, déjà atteint notre objectif qui était de développer un outil», conclut le chercheur.

PUBLIER UN COMMENTAIRE

*

Votre adresse email ne sera pas publiée. Vos données sont recueillies conformément à la législation en vigueur sur la Protection des données personnelles. Pour en savoir sur notre politique de protection des données personnelles, cliquez-ici.