Patrick Bélanger
Article en référence: https://www.theguardian.com/technology/2024/dec/14/saferent-ai-tenant-screening-lawsuit
Article Reddit: She didn’t get an apartment because of an AI-generated score – and sued to help others avoid the same fate https://www.reddit.com/r/technology/comments/1he6qeb/she_didnt_get_an_apartment_because_of_an/
Une femme s’est vue refuser un appartement à cause d’un “score locatif” généré par l’IA de SafeRent. Malgré des antécédents de paiement impeccables et l’utilisation de bons de logement gouvernementaux, l’algorithme l’a jugée non admissible sans fournir d’explications claires. Cette situation a mené à une poursuite judiciaire qui s’est soldée par un règlement de 2,3 millions de dollars et l’engagement de SafeRent à cesser d’utiliser son système de notation pour les locataires utilisant des bons de logement pendant cinq ans.
Le score locatif est similaire à un score de crédit, mais il est calculé par des algorithmes propriétaires qui analysent diverses données personnelles. Contrairement au score de crédit traditionnel, qui est réglementé par le Fair Credit Reporting Act, ces systèmes de notation alternatifs opèrent dans une zone grise réglementaire.
L’automatisation des décisions locatives reflète une tendance plus large de notre société : la recherche d’efficacité et d’objectivité à travers la technologie. Si les algorithmes peuvent traiter plus de données plus rapidement qu’un humain, ils héritent aussi de nos biais sociétaux à travers leurs données d’entraînement.
La vraie question n’est peut-être pas de savoir si nous devrions utiliser l’IA pour ces décisions, mais plutôt comment nous pouvons assurer sa transparence et son équité. Le cas de SafeRent illustre parfaitement ce besoin d’équilibre entre innovation technologique et protection des droits fondamentaux.
L’IA dans le domaine locatif pourrait révolutionner l’accès au logement en éliminant les préjugés humains conscients et inconscients. Avec les bons garde-fous et une transparence accrue, ces systèmes pourraient devenir plus équitables que les processus traditionnels. Le règlement de SafeRent montre que l’industrie peut s’adapter et s’améliorer en réponse aux préoccupations légitimes.
Imaginez un futur où les décisions locatives seraient prises sur des critères objectifs et vérifiables, où chaque refus serait accompagné d’explications claires et d’un parcours d’amélioration défini. La technologie pourrait même aider à identifier et à corriger les biais systémiques existants.
L’utilisation croissante d’algorithmes opaques dans des décisions cruciales comme l’accès au logement crée une nouvelle forme de discrimination numérique. Ces systèmes, protégés par le secret commercial, peuvent perpétuer et amplifier les inégalités existantes sans avoir à en rendre compte.
Le cas de SafeRent n’est que la pointe de l’iceberg. Nous risquons de créer une société où des algorithmes invisibles et incompréhensibles déterminent qui peut se loger, obtenir un emploi ou accéder à des services essentiels. Sans réglementation stricte et transparence totale, ces systèmes pourraient devenir les gardiens numériques d’une nouvelle forme de ségrégation sociale.
Si vous n'êtes pas redirigé automatiquement, 👉 cliquez ici 👈