Avez-vous déjà été victime d’un processus bureaucratique qui semblait défier la logique ? Je suis Richard Whitt, membre de la fondation Mozilla, et je reviens avec la deuxième partie sur l’avenir des IA personnelles. La dernière fois, nous avons parlé de l’intelligence artificielle (IA) qui opère derrière nos écrans connectés et dans nos environnements. Dans cet épisode de Mozilla explique, nous discuterons du fonctionnement de l’IA dans ce que j’appelle les bureaucraties invisibles. Regardez l’épisode ci-dessous ou lisez la suite pour en savoir plus.
Les bureaucraties invisibles sont des systèmes avancés qui prennent des décisions à notre sujet, généralement sans notre avis et à notre insu, souvent pour le compte de grandes institutions comme le gouvernement ou les grandes entreprises. Elles décident des emplois que nous obtenons, des prêts bancaires que nous pouvons recevoir, et même des prestations gouvernementales auxquelles nous serions éligibles, allant de l’inscription sur les listes électorales aux paiements des prestations de sécurité sociale. D’innombrables décisions de ce genre sont prises chaque jour, même si nous n’en avons pas conscience.
Même si elles sont présentées comme utiles ou facilitant le travail, les IA derrière ces « invisibles » représentent de grandes entreprises ou des agences gouvernementales, collectant nos données, nous analysant et prenant des décisions extrêmement importantes concernant notre bien-être. Dans le passé, des êtres humains prenaient ces décisions. Aujourd’hui, ce sont les algorithmes informatiques qui gèrent de manière rigide les processus, les règles et les procédures, souvent sans surveillance ni jugement humain. Ces systèmes peuvent involontairement avoir recours à des algorithmes fortement biaisés et des ensembles de données incorrectes. Et tout cela sans que nous ayons aucun moyen légitime de faire appel ou d’objecter.
La dernière fois, nous avons étudié le concept d’IA personnelle (PAI), une IA qui défend vraiment nos intérêts, plutôt que ceux d’une entreprise avide de données. Ces IA peuvent être programmées pour nous représenter, en tant qu’êtres humains individuels, et non en tant qu’ensemble de données. Ainsi, elles pourraient protéger notre vie privée, notre sécurité et notre identité, tout en défendant nos intérêts.
Les IA personnelles peuvent également tenir le rôle d’agents de confiance, interagissant avec les invisibles bureaucratiques - en communiquant directement avec les IA institutionnelles en notre nom.
Un exemple pourrait être de demander à l’AI d’un gouvernement ou d’une entreprise de donner à mon PAI les raisons spécifiques pour lesquelles ils ont pris une décision ; par exemple si ma demande de prêt a été acceptée, ou dans le cas où j’ai passé un entretien d’embauche ou encore dans le cas où ma peine de prison a été prolongée. Ensuite, mon PAI serait en mesure de poser des questions éclairées, d’évaluer les mêmes preuves, de remettre en cause le résultat des analyses et même de contester directement la justification analytique basée sur les données, ayant conduit à de telles décisions.
Comment pouvons-nous y arriver ?
Nous avons besoin que la technologie, les marchés, les normes et les lois soient concordantes, afin que les gouvernements et les entreprises puissent s’adapter à ces nouveaux outils citoyens.
En particulier, nous devons travailler avec nos élus, nos régulateurs et nos agences gouvernementales pour exiger un « droit de déléguer » les décisions importantes concernant nos interactions en ligne, à un tiers de confiance, et un « droit d’interroger », en utilisant nos PAI pour questionner et remettre en question les systèmes d’IA institutionnels qui prennent des décisions importantes sur nous et sur nos familles.
Vous voulez approfondir ce sujet ? Vous pouvez en savoir plus en parcourant mon article Démocratiser l’IA : assurer l’autonomie humaine sur nos « écrans, nos environnements et nos invisibles » informatiques.