Et si Alexa était vraiment faite pour vous, et juste pour vous ? Un assistant personnel qui travaillait dans votre intérêt, et non dans l’intérêt financier d’une grande entreprise ? Je suis Richard Whitt, titulaire d’une bouse Mozilla, ancien responsable de la politique publique de Google, et fondateur de l’organisation à but non lucratif GLIA Foundation qui se consacre à la création de technologies centrées sur l’humain. Dans cet épisode de Mozilla explique, j’explore ces idées, et ce qu’il faudrait pour que cela se produise. Vous pouvez le regarder ci-dessous, ou lire la suite.
Les IA institutionnelles dans nos vies
Il existe trois types d’intelligence artificielle (IA) avec lesquels nous interagissons régulièrement : ce que j’appelle les écrans en ligne, les scènes environnementales et les invisibles bureaucratiques. Dans ce billet de blog, je vais couvrir les deux premiers, les écrans et les scènes. Restez à l’écoute pour la deuxième partie, où nous parlerons des invisibles bureaucratiques.
Le premier type d’IA se trouve derrière les écrans en ligne de nos ordinateurs et appareils mobiles. On la trouve dans les moteurs de recommandation qui alimentent nos interactions quotidiennes avec le Web. Facebook, Twitter, YouTube et des centaines d’autres sites web utilisent l’IA pour nous suggérer les articles à lire, les vidéos à regarder, et même les personnes avec qui nous devrions sortir.
Le deuxième type d’IA est placé dans nos scènes environnementales. Les assistants virtuels (AV) tels que Siri d’Apple, Google Assistant et Alexa d’Amazon résident dans nos salons et nos chambres à coucher, sur nos appareils mobiles, et même sur nos corps sous la forme de wearables comme les montres et les bagues. Ces assistants personnels sont dotés de formes avancées d’intelligence artificielle, qui leur permettent de répondre à nos commandes et même de nous suggérer des actions.
Pour qui ces IA travaillent-elles réellement ?
Il ne fait aucun doute que ces IA sont utiles dans notre vie quotidienne.
Et les entreprises qui les créent et les emploient veulent certainement nous faire croire qu’elles agissent dans notre intérêt.
En réalité, cependant, ces IA représentent de grandes entreprises désireuses de nous vendre quelque chose, ou d’aspirer nos données personnelles pour les vendre à des tiers dont vous n’avez jamais entendu parler — des annonceurs, des courtiers en données. Ou encore, ils peuvent traiter vos données avec négligence et permettre à d’autres de les pirater ou de les voler. Les fuites de données de grandes institutions comme Facebook sont surprenamment courantes.
De plus, ces systèmes sont souvent construits d’une manière qui intègre des préjugés sociétaux dans leur programmation. Que ce soit en raison de la façon dont ils ont été programmés ou de la façon dont ils ont été entraînés, ils véhiculent des préjugés implicites à l’encontre des populations minoritaires.
Et si nous avions un avenir différent, où ces assistants virtuels travailleraient vraiment pour nous ? Et n’avaient de comptes à rendre qu’à nous ?
Comment les IA personnelles peuvent améliorer notre vie numérique
Une IA personnelle (PAI) est similaire aux IA des grandes institutions, comme celles dont disposent Amazon ou Google dans leurs assistants personnels, à une différence majeure près : elles sont programmées pour nous représenter, en tant qu’êtres humains individuels.
Cette programmation signifie qu’ils n’ont pas de conflits d’intérêts, comme l’impératif impérieux de nous vendre des produits ou de nous servir des publicités. Ils ne seraient pas non plus facilement piratés par des tiers malveillants cherchant à voler nos identités.
Au lieu de cela, ils utilisent l’apprentissage automatique pour évaluer ce que nous voulons réellement, et prennent des mesures pour y parvenir. Ils peuvent protéger notre vie privée, notre sécurité et notre identité, tout en défendant nos intérêts en ligne.
Comment cela peut-il se produire ? En bref, en interagissant directement avec les IA institutionnelles comme Alexa, ou Google Home en notre nom.
Comment cela fonctionnerait-il ?
Voici quelques exemples. Imaginez que vous demandiez à Alexa d’arrêter de collecter des données pour son moteur de recommandation en ligne et de transmettre les données collectées à votre PAI afin que vous puissiez créer votre propre flux de contenu. Ou encore, demander à votre PAI d’informer les autres assistants numériques de ne pas collecter de données sur vous ou votre famille lorsque vous vous rendez chez un ami ou dans un restaurant, ou même de vous avertir si vous êtes surveillé·e par le réseau de capteurs d’une ville intelligente.
Comment pouvons-nous y arriver ?
Il existe un certain nombre de moyens d’augmenter les chances de cet avenir prometteur. La technologie est largement disponible, mais des questions demeurent : qui fournirait ces services ? Qui les paierait ? S’agirait-il d’un avantage public ? Il y aura une résistance de la part des plateformes, il est peu probable qu’elles veuillent rendre leurs IA interopérables.
En fin de compte, ce sont peut-être les lois et les politiques qui permettront cet avenir. Je vous invite à demander à vos élus d’exiger deux choses que nous n’avons pas aujourd’hui : L’une est un droit de déléguer, qui est essentiellement l’idée d’avoir un tiers en qui vous avez confiance pour prendre des décisions en votre nom, et d’exiger que les plateformes obéissent à leurs instructions.
L’autre serait ce que j’appelle un droit d’interroger. Il s’agit d’une obligation pour les IA d’interopérer et essentiellement de pouvoir parler aux autres systèmes. Cela permettrait à votre PAI de poser des questions, de chercher des informations supplémentaires et même de contester les décisions que ces IA prennent sur votre vie.