Comment l’intelligence artificielle peut-elle être biaisée ? Dans le domaine de l’intelligence artificielle, on parle de parti pris lorsqu’une machine fournit des résultats systématiquement différents pour un groupe de personnes par rapport à un autre. Généralement, ces résultats biaisés suivent des préjugés sociétaux humains classiques liés par exemple à l’ethnicité, au genre, au sexe biologique, à la nationalité ou à l’âge.

Les résultats biaisés peuvent être dus à des hypothèses formulées par les ingénieurs qui ont développé l’IA, ou ils peuvent être le résultat de préjugés dans les données qui ont servi à entraîner l’IA, ce qu’explique Johann Diedrick dans la dernière édition de Mozilla explique. Regardez la vidéo ci-dessous.


Sur le même sujet