Cela va peut-être vous rappeler quelque chose : les applications que vous utilisez et les algorithmes qui les alimentent sont biaisés. Cela affecte les flux sur vos réseaux sociaux, les résultats de vos recherches et même vos opportunités de rencontres.
Vos rencontres en ligne peuvent sembler aussi spontanées que celles qui ont lieu dans la réalité, mais elle sont orchestrées en coulisses par les algorithmes de Tinder et Hinge. Il est possible que ces applications privilégient les profits au détriment des belles rencontres, mais ce dont nous sommes certains, c’est que ces algorithmes sont influencés par des préjugés humains.
« Je pense que beaucoup d’utilisateurs de couleur ont le sentiment ou l’intuition d’être isolés ou de n’être visibles que par certains types de personnes », déclare Apryl Williams. Apryl est collaboratrice senior chez Mozilla, professeur à l’université du Michigan et autrice du livre Not My Type : Automating Sexual Racism in Online Dating. « Cette intuition est confortée par les données d’un grand nombre d’entreprises qui utilisent l’appartenance ethnique, le statut économique ou l’éducation comme point de référence pour la mise en correspondance. Ou du moins le prétendent-elles. C’est vraiment difficile parce que nous ignorons ce qui se trouve dans leur code, mais nous avons conscience de ce que nous avons vécu. »
Des applications conçues pour optimiser l’expérience des utilisateurs blancs
Lorsque Apryl, une femme noire, a rencontré son conjoint, un homme blanc, sur Tinder, il a remarqué que l’application insistait pour lui envoyer des profils de femmes blondes. Les applications sociales utilisent des techniques telles que le filtrage collaboratif pour déterminer ce qui plaira à un utilisateur en se basant sur les centres d’intérêt d’utilisateurs au profil similaire. Dans le cas du mari d’Apryl, cependant, l’application a insisté pour lui proposer des femmes blondes malgré le fait qu’il ne cessait de swiper vers la gauche. « Beaucoup de ces applications partent du principe que l’idéal occidental américain est une femme blonde aux yeux bleus », explique Apryl. « Pour continuer à attirer les utilisateurs, elles vont donc s’assurer que les personnes qui selon elles recherchent ce type de femme en voient apparaître un grand nombre sur l’application ».
Nous ignorons beaucoup de choses sur le fonctionnement des applications de rencontres. Nous disposons toutefois de certaines informations. « Souvent, les applications utilisent ce que l’on appelle un score de pertinence ou une évaluation de la pertinence, c’est-à-dire qu’elles vérifient la pertinence entre les utilisateurs », explique Apryl. « Les détails à ce sujet sont cachés, nous ne savons pas exactement de quoi il s’agit. Mais nous savons que, dans une certaine mesure, ces applications recherchent des indices et un contexte social qui leur indiqueraient que ces deux utilisateurs pourraient être compatibles. Souvent, ces applications sont conçues pour des personnes blanches par des personnes blanches et les éléments qu’elles intègrent dans le produit, comme les scores de pertinence, font partie de l’idéal occidental blanc prédominant ». Ces préjugés s’ajoutent aux scores cachés dans les applications de rencontres pour former une combinaison dangereuse, amplifiant considérablement les effets des préjugés sur la plateforme.
Comment les applications de rencontres gèrent la confiance et la sécurité ?
Trouver un partenaire sur une application de rencontre devient très difficile si les utilisateurs n’ont pas confiance dans la sécurité de l’application. Malheureusement, de nombreuses applications modernes de mise en relation échouent à cet égard. « Les entreprises ont commencé à inclure le racisme et la transphobie dans leurs guides de protection des communautés, mais il n’y a pas de directives claires sur la façon dont les gens peuvent signaler un incident transphobe, un cas de harcèlement racial ou un problème de fétichisation raciale », explique Apryl. « En l’absence d’une procédure claire, les utilisateurs sont dissuadés de signaler ces incidents dans des moments d’anxiété, de stress ou de peur, parce qu’ils ne se sentent pas clairement soutenus ».
La confiance et la sécurité numériques dans le domaine des applications de rencontres ont connu des hauts et des bas. Par exemple, en février, Tinder a annoncé une nouvelle fonctionnalité destinée aux utilisateurs âgés de 18 à 25 ans pour identifier les comportements inappropriés, en particulier en ce qui concerne « l’authenticité, le respect et l’inclusion », ainsi qu’une nouvelle fonctionnalité visant à améliorer la vérification des utilisateurs. Avant cela, cependant, Tinder et d’autres applis du groupe Match ont suspendu la procédure de vérification des antécédents des utilisateurs.
Des experts comme Apryl saluent les efforts de Match Group dans la composition de son comité consultatif, dont les membres sont spécialisés dans la santé des enfants et le trafic sexuel. Toutefois, Apryl craint que les efforts de l’entreprise en ce qui concerne la sécurité des utilisateurs issus de minorités ne soient pas aussi poussés que ceux déployés pour les autres.
Les applications de rencontres en font-elles assez pour protéger les utilisateurs de couleur ?
Des études montrent que les gens ont des préjugés et que beaucoup d’entre eux acceptent de les intégrer à leur expérience sur les applications de rencontres. Malheureusement, dans de nombreux cas, les algorithmes aggravent la situation. « Les préjugés dont nous sommes victimes en ligne ne sont pas différents de ceux que nous connaissons dans d’autres domaines de la vie, ils sont simplement amplifiés par les algorithmes », explique Apryl. « Il nous arrive de réfléchir à deux fois à la raison pour laquelle [nous] voyons telle personne sur l’application ou sommes mis en relation avec telle autre personne ».
Les applications de rencontres, comme de nombreuses applications sociales, ont tendance à privilégier l’expérience des personnes blanches, ce qui laisse souvent les utilisateurs de couleur sur le carreau. Dans le cas des applications de rencontres, ce choix n’a profité à personne. « Les politiques de confiance et de sécurité sont conçues pour protéger les femmes blanches », explique Apryl, « et même avec ce qu’il se fait de mieux en matière de confiance et de sécurité, les femmes blanches ne sont pas protégées de manière adéquate. Si les applications ne parviennent même pas à offrir une protection suffisante au groupe démographique cible, je ne veux même pas penser au traitement qui est réservé au reste d’entre nous ».
Les applications de rencontres sont-elles racistes ? Voici comment Tinder et ses concurrents peuvent protéger les personnes de couleur
Rédigé par : Xavier Harding
Relu par : Audrey Hingle, Kevin Zawacki, Lindsay Dearlove
Illustration par : Shannon Zepeda