LIRE
L’implication de Mozilla dans le domaine de l’IA ne date pas d’hier. Nous finançons, développons et militons pour une IA digne de confiance depuis plusieurs années. En 2020, nous avons publié un livre blanc décrivant notre vision d’une IA digne de confiance, à un moment où cette technologie n’en était qu’à ses balbutiements. Depuis, beaucoup de choses ont changé. L’IA est de plus en plus puissante et omniprésente dans notre société, et ses promesses ainsi que ses dangers se font de plus en plus évidents. Et bien que de plus en plus d’individus et d’organisations œuvrent pour rendre l’IA plus fiable, le défi ne cesse de croître. Malgré la mise en place de garde-fous, l’écosystème de l’IA est devenu de plus en plus fermé et concentré entre les mains de quelques grandes entreprises.
Face aux évolutions rapides et récentes dans le domaine de l’IA, nous avons ressenti le besoin de faire le point sur les progrès accomplis jusqu’ici et sur ce qu’il reste à faire. Ce nouveau rapport propose une mise à jour sur les travaux réalisés dans les quatre domaines stratégiques identifiés en 2020. Il dresse également un état des lieux des principales initiatives en cours dans ces domaines, tant au sein de Mozilla que dans l’écosystème global. Surtout, ce rapport souligne le rôle central de l’open source, selon nous, dans le développement d’une IA plus fiable. Nous espérons qu’il pourra servir de guide et de boussole aux lecteurs, qu’il les aidera à comprendre les enjeux d’une IA digne de confiance, les encouragera à s’engager pour de meilleures perspectives avec l’IA, et leur permettra d’identifier des opportunités de collaboration avec d’autres acteurs de cet écosystème. De notre côté, nous sommes convaincus que ce travail collectif pourra nous mettre sur la voie de l’ouverture, de la concurrence libre et non faussée ainsi que de la responsabilité dans le domaine de l’IA.
Nous vous invitons à partager vos réflexions sur le rapport et à nous faire part de vos impressions sur l’état actuel de l’écosystème de l’IA. Vos commentaires, ainsi que votre participation à une série d’événements publics, seront précieux pour enrichir notre compréhension et notre vision de l’avenir de l’IA fiable. N’hésitez pas à nous contacter à l’adresse [email protected] pour nous donner votre avis sur le rapport et partager vos exemples favoris illustrant une utilisation de l’IA qui favorise la confiance et améliore le quotidien des individus.
Résumé
L’IA dans notre monde aujourd’hui
Nous sommes à un tournant pour l’IA et pour la société dans son ensemble. Cette technologie ouvre la voie à d’énormes avantages pour la société, de la découverte de médicaments et de solutions climatiques à des gains de productivité pour les individus et les petites entreprises. Mais ces avantages ne sont pas sans contrepartie. Et les préjudices causés par l’IA sont aujourd’hui plus préoccupants que jamais. Nous voyons l’IA être utilisée pour faciliter la tromperie et le harcèlement sur les réseaux sociaux, perpétuer les biais dans les systèmes judiciaires ou encore extraire des informations sensibles de l’activité en ligne des personnes.
L’écosystème actuel de l’IA présente des défauts structurels qui freinent la réalisation de son plein potentiel, tout en laissant les préjudices liés à l’IA proliférer sans entraves. Nous savons que de nombreuses innovations et applications de l’IA ont été rendues possibles grâce à l’open source et à l’open science. Le document sur les transformateurs de Google et le framework TensorFlow, par exemple, ont été largement diffusés, contribuant directement à de nombreuses avancées de l’IA dans plusieurs secteurs. Mais aujourd’hui, de nombreuses grandes entreprises technologiques discréditent ces approches ouvertes et concurrentielles, privilégiant des modèles d’IA propriétaires et leurs activités lucratives dans le Cloud Computing. Résultat : la concurrence au sein de l’écosystème de l’IA est de plus en plus ardue.
Pourtant, il suffit d’observer les autres secteurs d’activité pour constater que la concurrence est cruciale pour stimuler la recherche et le développement, créer des produits moins chers et plus sûrs, mais aussi stimuler l’investissement et la création d’emplois. Un manque d’ouverture et de concurrence rend également plus difficile la promotion de la responsabilité en matière d’IA. Cela limite la recherche indépendante et la collaboration, réduit la transparence vis-à-vis du public et des régulateurs, et crée des obstacles sur le marché pour les nouveaux venus qui cherchent à développer une IA responsable.
Dans un monde où l’IA touche tous les secteurs et tous les domaines de la société, des changements structurels sont nécessaires pour résoudre les problèmes actuels liés à l’IA, et mieux tirer parti de ses avantages. C’est ainsi que nous parviendrons à une IA digne de confiance : une technologie conçue et utilisée de manière à favoriser la responsabilité et l’autonomie, tout en améliorant le bien-être individuel et collectif.
Une histoire familière pour Mozilla
Chez Mozilla, nous connaissons bien cette situation. À la fin des années 90, alors que l’Internet commercial émergeait à peine, Microsoft menaçait de monopoliser le marché des navigateurs web, risquant ainsi d’enfermer les utilisateurs, d’étouffer la concurrence et d’entraver l’innovation en ligne. Internet portait en lui la promesse de transformer la société mais, paradoxalement, son accès devenait de plus en plus contrôlé par une seule entreprise. Mozilla lança alors Firefox, un navigateur open source qui apporta une concurrence essentielle sur le marché et éleva les normes de confidentialité, de sécurité et de fonctionnalités du secteur. C’était il y a 25 ans et, depuis, notre engagement pour lutter contre la concentration des pouvoirs dans les mains des géants de la tech sur Internet n’a jamais faibli, s’exprimant à travers nos investissements, nos campagnes de sensibilisation et, bien sûr, nos produits.
C’est pour cette raison que nous avons été inquiets en voyant un schéma similaire émerger dans l’écosystème de l’IA au cours de la dernière décennie. En 2020, nous avons élaboré une vision de l’IA digne de confiance qui mettait en lumière bon nombre des problèmes que nous observions dans cet écosystème. Nous avons identifié quatre leviers que nous pourrions actionner pour parvenir à une IA digne de confiance à grande échelle, et nous avons mobilisé la communauté Mozilla pour agir dans ce sens.
Depuis lors, chez Mozilla, nous nous sommes pleinement engagés dans cette direction pas le biais d’actions de développement, d’investissement et de sensibilisation. Nous investissons dans de nouvelles technologies et de nouveaux produits pour mettre en pratique les principes d’une IA digne de confiance, offrant ainsi aux consommateurs davantage de choix et de contrôle. Nous sensibilisons les décideurs politiques du monde entier aux risques et aux avantages existants de l’IA, pour obtenir des réglementations plus intelligentes et des dynamiques de marché plus équitables. Nous continuons à réunir des créateurs, des chercheurs et des militants partageant les mêmes idées dans le but de parvenir à un consensus sur le développement responsable de l’IA et financer des initiatives visant à rendre l’IA plus digne de confiance. Nous aidons les consommateurs à être plus critiques dans leur choix de produits d’IA et, enfin, nous encourageons les législateurs à mettre l’accent sur l’ouverture et la responsabilité dans l’élaboration des politiques en matière d’IA.
Avancées et prochaines étapes vers une IA digne de confiance
Dans notre document initial, nous avons identifié quatre leviers clés pour promouvoir le développement d’une IA plus fiable : (1) changer les normes de développement de l’IA, (2) développer de nouvelles technologies et de nouveaux produits, (3) sensibiliser les consommateurs, et (4) renforcer la réglementation et les incitations en matière d’IA. Le rapport que vous avez sous les yeux met en lumière les progrès les plus significatifs réalisés pour chaque levier et les domaines dans lesquels des efforts supplémentaires sont nécessaires.
Enseignements clés
Les personnes qui ont révolutionné Internet sont aujourd’hui celles qui créent l’IA. Les grandes entreprises technologiques et les start-up qu’elles soutiennent dominent actuellement le secteur de l’IA. Elles ont créé des modèles d’IA opaques et centralisés en utilisant nos données collectées. Heureusement, un nombre croissant de start-up, de développeurs, d’enseignants, de chercheurs et de leaders de la société civile se concentrent sur le changement de ces normes, en mettant l’accent sur la construction d’une IA ouverte, transparente et digne de confiance.
Les produits d’IA dignes de confiance doivent être utilisés plus largement. Au cours des 18 derniers mois, les outils d’IA générative basés sur des boîtes noires ont connu une popularité croissante dans le monde des affaires et dans l’esprit du grand public. Parallèlement, une foule de start-up et projets de recherche ont émergé pour créer des modèles open source, des outils d’audit et des plateformes de données offrant une alternative. Bien que ces initiatives ne soient pas encore généralisées, elles sont les prémices d’un écosystème d’IA plus prometteur.
Une audience avertie réclame plus de choix en matière d’IA Les consommateurs commencent à prendre conscience de l’impact de l’IA sur leur quotidien. Des travailleurs, qu’il s’agisse de livreurs ou de scénaristes hollywoodiens, expriment leurs préoccupations quant à l’impact de l’IA sur leurs moyens de subsistance. Pourtant, nous n’avons pas encore assisté à l’émergence de produits grand public offrant aux individus de réelles alternatives pour utiliser et interagir avec l’IA. Et cette lacune représente un défi majeur.
Les gouvernements avancent tout en composant avec des influences contradictoires. Alors que les décideurs politiques cherchent à réguler l’IA, ils se retrouvent confrontés à des messages contradictoires, surtout de la part du secteur. Certains préconisent de ne pas réglementer, tandis que d’autres recommandent de limiter le contrôle sur l’IA de pointe à quelques entreprises seulement. Certains régulateurs adoptent une troisième approche en écoutant des voix ayant moins pignon sur rue dans le secteur de l’IA, venant du milieu universitaire ou encore de la société civile, et qui plaident en faveur d’une approche plus équilibrée.
Ce rapport met en évidence les progrès réalisés depuis 2020, tout en soulignant qu’il reste encore beaucoup de chemin à parcourir. Il est temps de redoubler d’efforts et de réaffirmer nos principes fondamentaux, et ce rapport explique précisément comment faire. Il met en avant le travail continu de Mozilla pour changer la perception de l’IA, rendre l’IA générative open source plus fiable et plus accessible, mais aussi donner aux consommateurs de véritables choix en matière d’IA. Il souligne notre engagement à investir continuellement dans un écosystème d’IA open source et digne de confiance, ainsi qu’à soutenir les législateurs pour élaborer et mettre en œuvre une réglementation pragmatique en matière d’IA. Enfin, il encourage les développeurs, les consommateurs, les décideurs politiques, les défenseurs et les investisseurs à utiliser leur influence respective pour faire prendre à l’écosystème de l’IA une meilleure direction.
Concrétiser cette vision nécessitera d’unir nos efforts, et ce sans délai. Il n’y a plus de temps à perdre, alors passons à l’action dès maintenant !
Dans un monde où l’IA touche tous les secteurs et tous les domaines de la société, des changements structurels sont nécessaires pour résoudre les problèmes actuels liés à l’IA et mieux tirer parti de ses avantages.
Introduction : défis, risques et opportunités de l’IA
Un intérêt accru du public pour l’IA
Les investissements et les avancées dans le domaine de l’IA sont en cours depuis des décennies, mais les avantages transformateurs de la technologie et son potentiel de préjudices à long terme ont pris une ampleur considérable au cours des trois dernières années. Le lancement de systèmes d’IA générative basés sur de grands modèles de langage (LLMs) comme ChatGPT, Bard et Stable Diffusion a captivé le grand public, en permettant à chacun d’interagir pour la première fois avec des systèmes d’IA dans un langage naturel. Cette prise de conscience croissante a déclenché une véritable ruée vers l’IA chez les géants de la tech, les entrepreneurs et les investisseurs, au cours de laquelle les nouveaux venus et les acteurs déjà en place se disputent un marché en plein essor. Dans le même temps, de plus en plus de personnes dénoncent les abus, les biais, l’opacité et les préjudices à grande échelle des modèles d’IA. Les médias ont du mal à faire la différence entre la « hype » de l’IA et ce qui relève de la réalité, tandis que le grand public a des sentiments mitigés à son égard, certains craignant pour leurs emplois. Des artistes intentent même des poursuites pour atteinte présumée au droit d’auteur dans les données servant à entraîner l’IA. Parallèlement à cela, des militants, des universitaires et des technologues débattent des dangers de l’IA à aborder en priorité et des approches de développement les plus sûres à adopter.
La prise de conscience croissante des risques liés à l’IA est une bonne chose. Sans un public bien informé exigeant davantage de transparence et de responsabilité, les grandes entreprises technologiques risquent d’utiliser l’IA pour maximiser leurs profits au détriment des individus, en renforçant encore leur domination sur le marché. Si cela arrivait, nous pourrions passer à côté de notre chance de créer une IA qui soit au service du plus grand nombre, et qui ne serve pas simplement à accroître les bénéfices des acteurs de la Silicon Valley.
Le débat sur l’avenir de l’IA a souvent opposé deux positions : un optimisme démesuré et une peur existentielle. D’un côté, certains soutiennent que pratiquement toute l’IA et toutes les technologies sont intrinsèquement bénéfiques et ne doivent pas être soumises à des réglementations ou à d’autres mesures visant à atténuer les risques qu’elles comportent. De l’autre côté, certains craignent que l’IA ne représente une menace existentielle pour l’humanité et plaident pour des restrictions drastiques, susceptibles de limiter ses avantages actuels mais aussi son potentiel.
Pourtant, il existe une troisième voie, plus pragmatique, qui offre un juste milieu sur les risques et les avantages de l’IA. Chez Mozilla, nous nous rangeons derrière cette vision réaliste de l’IA. Nous sommes optimistes quant à son potentiel positif, tout en reconnaissant la nécessité de résoudre les problèmes actuels comme les biais, la discrimination et les pertes d’emplois inhérentes à son déploiement. Cette approche n’est pas nouvelle, de nombreux individus et organisations de la société civile la défendent depuis des années. Avec toute la communauté open source et d’autres fondations, think tanks, chercheurs et militants, nous pensons que l’ouverture et la transparence peuvent permettre de relever les défis actuels de l’IA pour en faire profiter la société et l’économie tout en atténuant ses risques potentiels, tant à court terme qu’à long terme.
Pour guider nos prochaines étapes collectives, voici les cinq défis fondamentaux que nous avons identifié dans le paysage actuel de l’IA :
- La plupart des gens ont mal compris le débat autour de l’IA. Au cours de l’année qui vient de s’écouler, le conflit entre optimistes et pessimistes a monopolisé toute l’attention, occultant totalement des approches plus pragmatiques et réfléchies de l’IA. Pendant ce temps, loin des micros et des caméras, les réalistes de l’IA réfléchissaient aux moyens d’exploiter les énormes avantages de l’IA tout en relevant également les défis conséquents liés aux problèmes sociaux et aux marchés fermés. Et c’est à cette histoire que nous devrions accorder toute notre attention.
- Les grandes entreprises technologiques et les modèles fermés dominent le secteur. Avec les capacités croissantes et l’adoption généralisée de l’IA, favoriser la concurrence et l’accès à ce marché, mais aussi soutenir la recherche indépendante et encourager un regard critique des systèmes d’IA est plus important que jamais. Il est également nécessaire de laisser plus de place aux nouveaux acteurs pour développer des produits d’IA dignes de confiance. Ces dernières années, l’écosystème de l’IA s’est subitement orienté vers les modèles fermés : les entreprises d’IA de premier plan ont cessé de publier des articles et ont commencé à monétiser l’accès à leurs API. Dans le même temps, les géants de la tech ont investi massivement dans des acteurs comme OpenAI et Anthropic pour contrôler le secteur et renforcer leurs propres activités de Cloud Computing. Dans ce contexte, il est particulièrement difficile de promouvoir des approches ouvertes, celles-ci étant pourtant essentielles à la création d’un meilleur écosystème d’IA pour tous.
- Les technologies d’IA générative open source n’ont pas encore conquis le grand public. Au cours des douze derniers mois, une vague importante de modèles d’IA générative open source a été lancée, comme Llama, Falcon ou encore Mistral. Bien que ces nouveaux modèles gagnent en popularité et soient très prometteurs, il reste encore beaucoup à faire pour les rendre faciles à utiliser et dignes de confiance. L’IA générative open source ne s’imposera pas dans le cœur du grand public tant que ces problèmes n’auront pas été résolus.
- Des problèmes fondamentaux résident encore dans le développement de l’IA Les origines de nombreux préjudices causés par l’IA peuvent être attribuées à des aspects fondamentaux de son écosystème, comme les personnes qui la construisent et les méthodes qu’elles utilisent pour collecter et étiqueter les données. Par exemple, comme la plupart des ensembles de données d’entraînement des LLM sont établis à partir de données disponibles sur le web, les systèmes reproduisent des biais et des stéréotypes qui entraînent à leur tour des préjudices bien réels. De plus, l’industrie technologique souffre encore d’un grand manque de diversité, ce qui signifie que des perspectives entières sont exclues du développement de l’IA, empêchant ces modèles de refléter la diversité et la richesse de l’expérience humaine.
- Les décideurs politiques avancent, mais la technologie et ses préjudices avancent plus rapidement. En 2023, les avancées concernant la loi sur l’IA de l’Union européenne et la publication de l’ordonnance exécutive des États-Unis sur une IA sûre, sécurisée et digne de confiance ont montré que les responsables politiques prennent conscience de l’urgence d’une action politique plus ferme sur l’IA. Mais la croissance rapide de l’IA et les préjudices qui en découlent progressent bien plus vite que le développement et la mise en œuvre de nouvelles réglementations. Des entreprises comme OpenAI, Meta et Google ont déjà lourdement impacté l’économie un an à peine après le lancement de ChatGPT.
Ce moment décisif dans l’histoire de la technologie représente une opportunité incroyable pour les réalistes de l’IA d’influencer la trajectoire de tout un secteur, et de nous orienter vers un meilleur avenir technologique pour tous. Le développement d’une IA digne de confiance est à la fois urgent et complexe, et aucune personne ou organisation ne peut prendre en charge ces risques seule. C’est pourquoi nous avons souligné dans notre rapport de 2020 la nécessité d’une collaboration à l’échelle de tout l’écosystème. C’est aussi la raison pour laquelle nous travaillons aux côtés d’autres acteurs sur les produits, la recherche et les politiques nécessaires pour arriver à une IA digne de confiance.
Favoriser l’ouverture et la concurrence
Dans notre document publié en 2020, c’est-à-dire bien avant que le débat sur l’IA ne prenne cette ampleur, nous avions souligné l’importance de créer une IA en laquelle les gens peuvent avoir confiance, et qui repose sur deux principes centraux : la capacité d’action et la responsabilité. La capacité d’action permet aux utilisateurs de reprendre le contrôle de leurs expériences en ligne, tout en mettant l’accent sur la confidentialité, la transparence et le bien-être. La responsabilité signifie que les entreprises sont tenues pour responsables lorsque leurs systèmes d’IA causent des préjudices, que ce soit par des résultats discriminatoires, une mauvaise utilisation/gestion des données ou encore des pratiques dangereuses.
Depuis lors, nous sommes convaincus que les approches open source et un accès large au marché sont des éléments clés pour promouvoir la capacité d’action et la responsabilité à l’ère de l’IA. Nous avons remarqué que l’IA est de plus en plus développée dans un écosystème fermé, par les entreprises qui ont déjà causé des préjudices non seulement à Internet mais à la société tout entière au cours des 20 dernières années. Bon nombre des innovations les plus passionnantes dans le domaine de l’IA émanent de l’open source et de l’open science, mais les chercheurs s’éloignent des publications « ouvertes » à mesure que ceux qui les financent privilégient la vente de leurs services cloud. Sans surprise, ces mêmes entreprises dénigrent aujourd’hui les approches open source de l’IA au profit de leurs modèles propriétaires. De nouveaux acteurs ont fait leur entrée sur le marché avec le soutien financier des géants de la tech, et plaident en faveur de limitations pour empêcher l’accès ou le développement de systèmes d’IA plus puissants. Ils citent les risques potentiels pour la sécurité portés par l’IA open source. Pourtant, les modèles fermés peuvent également être la cible d’acteurs malveillants ou déployés par des développeurs mal équipés, et il s’avère que l’ouverture est bel et bien un facteur déterminant pour la sécurité, la sûreté et la responsabilité. Il n’est pas acceptable qu’une approche basée sur une boîte noire, contrôlée par une poignée d’entreprises, soit l’unique voie pour l’IA.
L’open source n’est pas une solution miracle. Il ne permet pas de régler tous les problèmes liés à l’IA. Mais lorsqu’il est utilisé de manière responsable, il peut favoriser un environnement propice à l’innovation, à la transparence et au développement de communautés. Employé dans le cadre d’un marché concurrentiel, il peut également contribuer à garantir que les progrès en matière d’IA soient accessibles à tous, enrichissent une base de connaissances collective et permettent à une multitude de perspectives de façonner et de gouverner la technologie. C’est pourquoi nous finançons, développons et collaborons avec des partenaires qui s’efforcent de rendre l’IA open source digne de confiance, mais aussi viable commercialement et utile pour le plus grand nombre. Notre utilisation de l’open source pour le bien commun ne date pas d’hier. Et nous travaillons à utiliser cette longue expérience pour l’IA.
Comme le démontre ce rapport, Mozilla et l’écosystème dans son ensemble progressent de manière significative vers une IA digne de confiance. Mais il reste encore beaucoup à faire. Nous savons que nous ne pouvons pas changer les choses seuls, c’est pourquoi le but de ce rapport — et de tous nos efforts — est de créer une communauté mondiale engagée en faveur d’une IA fiable. C’est ainsi que nous contribuons à construire un avenir meilleur.
Nous sommes convaincus que les approches open source et un accès large au marché sont des éléments clés pour promouvoir la capacité d’action et la responsabilité à l’ère de l’IA.
Changer les normes de développement de l’IA
Dans notre document de 2020, nous avons appelé à faire évoluer les normes et les lignes de conduite du secteur technologique portant sur le développement de l’IA. Nous avons mis en avant le besoin d’une plus grande diversité parmi les acteurs impliqués dans la conception de l’IA. Nous en avons même fait une condition essentielle à sa fiabilité. Aujourd’hui, nous constatons les répercussions de ce manque de diversité à la fois dans les ensembles de données utilisés pour entraîner les LLM et dans la définition des normes de développement de l’IA.
Les modèles d’IA sont entraînés sur des quantités gigantesques de données provenant d’un peu partout sur Internet. Mais comme Internet n’est pas accessible à tous de manière universelle, les données utilisées sont logiquement incomplètes. Conséquence : les résultats des LLM sont limités par les langues et les contenus les plus présents en ligne, ce qui inclut notamment les discours haineux et les publications néfastes provenant des recoins les plus sombres du Web.
De plus, si l’IA est développée seulement par une poignée d’entreprises de la Silicon Valley, qui se charge elles-mêmes d’élaborer des pratiques en matière de confiance et de sécurité qui façonneront irrémédiablement l’avenir du secteur entier, les produits d’IA seront privés d’une grande diversité de perspectives culturelles et d’expériences vécues. Les conséquences pourraient être dramatiques pour les personnes et les communautés historiquement exclues de la technologie, qui en ressentiront les effets sitôt que l’utilisation de l’IA se généralisera.
Des progrès positifs
Bien que le secteur technologique reste largement dominé par des hommes blancs, au cours des trois dernières années, des femmes et des personnes issues de communautés sous-représentées ont œuvré pour influencer la trajectoire du développement de l’IA.
Le travail du Dr Timnit Gebru, licenciée en 2020 de son poste de coresponsable de l’équipe chargée des questions éthiques pour l’IA chez Google pour avoir soulevé des inquiétudes concernant les biais dans une version précoce des LLM en est un exemple marquant. Elle est depuis devenue une voix importante pour la diversité dans le secteur technologique, dénonçant le pouvoir et le monopole des grandes entreprises qui développent des systèmes d’IA ayant un impact dans le monde entier. Un an après son licenciement, elle a fondé le Distributed Artificial Intelligence Research Institute (DAIR), un espace dédié à la recherche indépendante et communautaire sur l’IA, à l’abri de l’influence des géants de la tech. Depuis son lancement, le DAIR travaille à faire entendre la voix des personnes marginalisées dans la recherche sur les préjudices liés à la technologie de l’IA. L’organisation s’efforce également de créer une communauté ayant pour mission d’accélérer la création de technologies pour un avenir meilleur.
Nous reconnaissons également les progrès de la Conférence ACM sur l’Équité, la Responsabilité et la Transparence (ACM FAccT), dont les efforts délibérés visent à accroître la participation des groupes sous-représentés à la conférence, permettant ainsi une plus grande diversité de voix dans les discussions qui façonneront l’avenir du secteur technologique.
Nous avons soutenu financièrement des titulaires de bourse Mozilla, des experts en IA digne de confiance qui travaillent sur une variété de problématiques allant des systèmes algorithmiques racialisés sur les applications de rencontres aux impacts des technologies d’IA sur les communautés rurales. Plusieurs de ces personnes ont été reconnues au niveau mondial pour leur travail, comme Inioluwa Deborah Raji et Abeba Birhane, nommées dans la liste TIME100 AI 2023 pour leur travail sur les outils d’audit algorithmique open source. Le travail de Berhane a remis en question l’idée que des modèles d’IA toujours plus grands résoudront le problème des résultats toxiques ou biaisés, en mettant en lumière le fait que « les contenus haineux augmentent en même temps que les ensembles de données ». Mozilla Ventures a également investi dans Lelapa AI, qui vise à exploiter le potentiel des langues africaines dans le domaine de l’IA, dont elles sont traditionnellement exclues.
Il existe également une forte demande pour des talents dotés d’une expertise en IA digne de confiance, mais le nombre de personnes ayant cette expertise reste très limité. Tant le secteur technologique que le monde universitaire devront investir massivement dans l’éducation en IA pour répondre à cette demande croissante. Pour former une nouvelle génération d’experts en IA digne de confiance, nous avons lancé le Responsible Computing Challenge (RCC) en partenariat avec des universités. Cette initiative met l’accent sur les programmes permettant aux étudiants de comprendre les enjeux sociaux et politiques de l’informatique. À l’heure actuelle, Le RCC a déjà attribué 2,7 millions de dollars de financement à 33 institutions réparties sur trois continents.
Ce qu’il reste à accomplir
Les lignes de conduite largement acceptées dans le secteur concernant le développement responsable de l’IA sont encore en évolution. Le Centre de recherche sur les modèles fondamentaux de l’IA de Stanford, par exemple, a publié un indice de transparence des modèles fondamentaux (FMTI), qui vise à évaluer le niveau de transparence de dix des principaux développeurs de modèles fondamentaux d’IA. Des initiatives comme celle-ci sont prometteuses, mais elles présentent également leurs propres limites. L’analyse de Stanford a été rapidement critiquée, certains détracteurs soulignant les lacunes du FMTI et son penchant pour les modèles fermés.
Nous constatons également un recul préoccupant des efforts visant à diversifier les principales entreprises technologiques qui développent l’IA. Après le meurtre de George Floyd et les manifestations qui ont suivi en 2020, les dirigeants de nombreuses entreprises américaines se sont engagés à recruter, promouvoir et garder dans leurs équipes davantage de personnes de couleur. Bien que ces efforts aient commencé à porter leurs fruits, la tendance pourrait être menacée par les interventions de groupes d’intérêt particulier et l’opposition de leaders comme Elon Musk, qui rejettent la diversité, l’équité et l’inclusion (DEI). En 2023, des entreprises comme Google et Meta ont même réduit leurs dépenses en matière de DEI.
Il faut également tenir compte du manque de diversité régionale dans le développement de l’IA. En se concentrant principalement sur les efforts occidentaux, on néglige le travail précieux réalisé par les développeurs dans des régions où le secteur technologique est moins avancé, comme l’Amérique du Sud et l’Afrique. De plus, il y a la question des travailleurs dans des pays comme l’Inde et les Philippines, souvent exploités lors de l’étiquetage des données. L’IA aura un impact sur les individus du monde entier, il est donc essentiel d’impliquer plus de perspectives dans sa conception et son déploiement. Selon l’ONU, près de 2,6 milliards de personnes n’ont pas accès à Internet. Cela signifie que les données utilisées pour entraîner les modèles d’IA ne reflètent pas les expériences d’environ un tiers de la population mondiale. Sans l’apport d’un groupe de personnes plus diversifié, les lignes de conduite et les meilleures pratiques émergentes pourraient ne pas répondre aux besoins culturels et économiques d’autres régions du globe.
Chez Mozilla, nous nous sommes engagés à mettre en place et à soutenir des équipes internes diverses, équitables et inclusives. Mais nous reconnaissons qu’un changement plus large est nécessaire. Impliquer un groupe diversifié d’acteurs dans la définition de l’avenir de l’IA est un aspect fondamental de la stratégie de Mozilla, qui influence nos décisions de financement et nos domaines d’intervention. L’Africa Innovation Mradi, qui rassemble et finance des développeurs d’IA sur le continent depuis 2020, est une initiative remarquable faisant la promotion de modèles innovants basés sur les besoins des utilisateurs africains.
L’IA aura un impact sur les gens du monde entier, il est donc essentiel d’impliquer plus de perspectives dans sa conception et son déploiement.
Créer de nouvelles technologies et de nouveaux produits
En 2020, nous avons mis en avant le besoin de voir émerger davantage de technologies fondamentales pour l’IA, pour servir de bases solides et fiables aux développeurs. Aujourd’hui, face à un écosystème d’IA de plus en plus fermé, il est crucial que ces fondations respectent les principes d’ouverture, de concurrence et de responsabilité.
Les approches open source ne garantissent pas nécessairement une IA digne de confiance, car elles peuvent être récupérées et détournées au profit d’intérêts commerciaux. Toutefois, rendre les outils d’IA transparents et permettre leur modification constitue une première étape essentielle vers une responsabilité et une autonomie accrues. L’ouverture peut également jouer un rôle important pour faire la promotion d’un secteur de l’IA plus équitable, car un écosystème open source dynamique permet aux petits acteurs de rivaliser avec les grands.
Les géants de la tech ont amassé de véritables fortunes en collectant les données des utilisateurs, et ils cherchent actuellement à appliquer cette stratégie dans leurs offres d’IA. C’est pourquoi l’émergence d’autres modèles économiques pour les technologies grand public est une condition essentielle pour une IA plus digne de confiance. Afin d’encourager la concurrence, les investisseurs doivent également soutenir les entrepreneurs qui développent de nouveaux outils et modèles commerciaux d’IA centrés sur l’humain et respectueux de la vie privée.
Enfin, nous devons accroître le développement et l’adoption d’outils visant à rendre les systèmes d’IA plus responsables. Les technologies qui contribuent à améliorer la vie privée, comme l’apprentissage fédéré, peuvent réduire les risques tout au long du cycle de vie de l’IA et contribuer à une IA plus éthique. D’autres outils d’évaluation des performances et des risques peuvent également aider les développeurs à garantir la fiabilité des systèmes d’IA.
Des progrès positifs
Bien que les modèles propriétaires aient pris une longueur d’avance dans la course à l’IA, nous assistons désormais à l’émergence de nombreux LLM open source offrant une réelle alternative.
Si Meta et ses LLM ont dominé les discussions sur l’IA open source, des centaines d’autres modèles comme GPT-NeoX-20B d’EleutherAI, BLOOM de Hugging Face, Falcon-180B de l’Institut d’Innovation Technologique et Mixtral 8x7B de Mistral reflètent mieux les valeurs de l’open source. Hugging Face, une plateforme-communauté qui vise à « démocratiser les bons apprentissages automatiques », met en avant ces modèles à travers son classement des LLM open source. En suivant, en évaluant et en classant les modèles d’IA ouverts désignés par la communauté, l’entreprise fournit aux petites équipes et aux développeurs individuels une ressource fiable pour créer des produits plus transparents.
Chez Mozilla, nous avons également joué un rôle dans cet écosystème. En mars 2023, nous avons investi 30 millions de dollars pour créer Mozilla.ai, une start-up et une communauté dédiées à rendre les modèles d’IA open source à la fois plus fiables et plus utiles. Notre entreprise développe actuellement une vision plus collaborative des relations entre l’homme et l’IA. Cela passe notamment par la création de petits modèles de langage spécialisés (SSLM) pouvant être utilisés pour affiner les modèles en fonction des connaissances d’experts, tout en veillant à ce que ces derniers puissent les adapter à leurs besoins spécifiques. Nous sommes convaincus que des outils comme ceux-là contribueront à rendre les systèmes d’IA plus accessibles, fiables et utiles.
Nous nous sommes également engagés dans le développement et le financement de blocs de construction open source, qui offrent une plus grande marge de manœuvre et contribuent à rendre l’IA plus « locale ». Dans le cadre de notre objectif de rendre l’IA accessible à tous grâce à l’open source, nous avons lancé llamafile, un modèle de langage open source, flexible et contenu dans un seul fichier, qui facilite considérablement l’exécution et la distribution de modèles de langage sur une machine locale comme un ordinateur portable. Nous travaillons aussi sur des projets comme Common Voice, le plus grand corpus de données vocales open source multilingue et participatif au monde. Il contient aujourd’hui plus de 100 jeux de données linguistiques, y compris de nombreuses langues locales non prises en charge par les géants de la tech. Common Voice est l’initiative phare de la Fondation Mozilla pour atténuer les biais dans l’IA, en démocratisant la technologie vocale pour tous. Elle a été reconnue d’utilité publique numérique par l’Alliance pour les biens publics numériques, soutenue par l’ONU.
Par ailleurs, Mozilla travaille sur plusieurs ressources documentaires conçues pour favoriser le développement responsable de l’IA. Ces ressources incluent notre Guide de l’IA, une collection de ressources open source sur des sujets comme les bases de l’IA ou encore le choix de modèles d’apprentissage automatique. Elles présentent également une série de projets notables de la communauté de l’IA visant à offrir des perspectives et de l’inspiration. Notre initiative Open Source Audit Tooling (OAT), dont l’objectif est d’aider les développeurs, les chercheurs et les décideurs à comprendre le paysage de l’audit de l’IA, est l’un de ces projets.
Nous avons en outre considérablement investi dans le développement d’un écosystème d’IA digne de confiance. Mozilla Ventures a déjà investi 4 millions de dollars dans des start-up en phase d’incubation centrées sur l’IA digne de confiance, parmi lesquelles Themis AI, Fiddler AI, Armilla AI, Truepic ou Flower. L’équipe de Themis a développé un cadre logiciel permettant aux modèles d’apprentissage automatique de reconnaître quand ils produisent des résultats peu fiables, tandis que Fiddler AI propose des outils conçus pour observer et expliquer le fonctionnement d’une IA pour que celle-ci puisse être digne de confiance. Truepic développe des technologies capables d’authentifier les contenus afin d’atténuer les vagues de désinformation menées à l’aide d’images modifiées par l’IA. En 2023, la Fondation–Mozilla s’est engagée à verser 1,3 million de dollars pour soutenir des projets d’IA dignes de confiance par l’intermédiaire du Fonds de technologie Mozilla, le Data Futures Lab ainsi que des initiatives connexes.
Ce qu’il reste à accomplir
Les modèles d’IA open source gagnent du terrain, mais ils ne deviendront pas mainstream tant qu’ils ne seront pas plus faciles à utiliser, plus efficaces et plus dignes de confiance. Pour y parvenir, la communauté open source doit se concentrer sur la création de blocs de construction d’IA essentiels aussi utiles et performants que possible, afin qu’ils deviennent plus pertinents sur le marché. Lorsque les obstacles à la construction de meilleurs outils d’IA seront surmontés, les approches open source s’amélioreront et un écosystème d’IA digne de confiance pourra se développer.
L’un des principaux obstacles au développement de l’IA open source est l’incroyable puissance informatique nécessaire pour construire et entraîner des LLM. NVIDIA fait face à une demande sans précédent pour ses unités de traitement graphique (GPU), dont le coût individuel peut atteindre 30 000 dollars. Entraîner un modèle comme GPT-4 nécessite des milliers de ces puces, rendant cette démarche excessivement coûteuse pour les petites équipes et les développeurs individuels souhaitant mettre en place leur propre infrastructure d’IA. Si seules les grandes entreprises disposant de fonds importants comme Microsoft ou Google peuvent se permettre d’acquérir suffisamment de GPU pour entraîner leurs modèles, il sera alors impossible de développer des systèmes d’IA plus transparents et dignes de confiance. Les gouvernements peuvent contribuer à financer la capacité de calcul nécessaire pour des projets de recherche publics et des start-up locales. Cette pratique a déjà été amorcée aux États-Unis, au Royaume-Uni et dans l’UE. Parallèlement à cela, les développeurs explorent des solutions pour rendre plus accessible la construction de systèmes d’IA en utilisant des puces AMD, comme l’illustre notre récente mise à jour de llamafile.
Un autre défi majeur pour la création de nouvelles technologies et de nouveaux produits réside dans le manque de clarté du terme « ouvert » ou « open » dans le domaine de l’IA. La communauté open source n’a pas encore réussi à s’accorder sur une définition concrète de ce que représente l’IA open source, ni sur les lignes de conduite à suivre pour rendre les modèles d’IA accessibles au grand public. Or cette question est cruciale, car l’ouverture ne garantit pas à elle seule la création de modèles dignes de confiance ou la réduction des risques. En septembre 2023, la start-up française Mistral AI a lancé son propre LLM open source baptisé Mistral 7B, dont elle affirmait qu’il était plus puissant que le LLaMA-2 de Meta. Cependant, les chercheurs ont rapidement émis des inquiétudes concernant le manque de filtres de modération dans son système, qui permettait par exemple aux utilisateurs d’obtenir des instructions sur la fabrication de bombes ou sur l’automutilation. D’autres modèles intègrent des mesures de sécurité pour empêcher les chatbots de répondre à de telles questions, mais le fondateur de Mistral a affirmé que la responsabilité de la sécurité incombait aux développeurs d’applications d’IA, et non aux entreprises créant les LLM.
Pour relever ces défis, l’Université de Columbia et Mozilla se sont associés pour proposer en 2024 une série d’ateliers dont le but est de mieux comprendre ce que signifie l’ouverture dans le contexte de l’IA. Le projet vise à réunir des individus et des organisations engagés depuis longtemps dans le mouvement open source pour bâtir une large coalition capable de tenir tête aux géants de la tech et d’encourager les développeurs à ouvrir de manière responsable davantage de leurs développements en matière d’IA. Grâce à cette initiative et d’autres encore, nous continuerons à ouvrir la voie pour définir et développer des outils et des systèmes open source sûrs, accessibles et transparents.
Les modèles d’IA open source gagnent du terrain, mais ils ne deviendront pas mainstream tant qu’ils ne seront pas plus faciles à utiliser, plus efficaces et davantage dignes de confiance.
Sensibiliser les consommateurs
Créer une demande émanant du grand public pour des produits d’IA plus fiables était un levier important mis en avant dans notre article de 2020. Et cela concerne autant les consommateurs du quotidien que les organisations de la société civile qui s’efforcent de défendre leurs intérêts. Un public bien informé joue un rôle essentiel dans le puzzle de la responsabilité de l’IA. Lorsqu’un nombre critique d’utilisateurs s’oppose à des pratiques douteuses, les géants de la tech n’ont d’autre choix que de répondre à leurs préoccupations, car leur rentabilité en dépend.
Des progrès positifs
La rapide montée en puissance de ChatGPT et sa large couverture médiatique ont fait de l’IA un sujet de conversation populaire. Des entreprises de tous les secteurs l’expérimentent, ce qui signifie que des millions de personnes l’utilisent dans un contexte professionnel. En conséquence, les risques depuis longtemps pointés par les chercheurs sont désormais sous les feux des projecteurs. Des enquêtes récentes ont montré que plus de trois quarts des consommateurs sont préoccupés par la désinformation liée à l’IA, et moins de 40 % d’entre eux estiment qu’elle est sûre et sécurisée. Des années de plaidoyers, de sensibilisation et de politiques axés sur la protection de la vie privée, la lutte contre la désinformation et la responsabilité des plateformes technologiques ont contribué à éduquer un public plus averti, plus sceptique et plus engagé : autant d’éléments clés pour l’avenir de l’IA.
L’opinion publique sur l’IA émerge dans des contextes familiers comme le travail, les droits de l’homme et les intérêts des consommateurs. Les leaders des mouvements prennent de plus en plus conscience de l’impact qu’aura l’IA sur leurs communautés, et influencent donc leurs comportements et leurs attentes. Les préoccupations liées à l’IA étaient au cœur des grèves des travailleurs à Hollywood en 2023. Après plusieurs mois de mobilisation ayant paralysé les industries du cinéma et de la télévision, les scénaristes et les acteurs ont obtenu des concessions concernant l’IA dans leurs contrats syndicaux, couvrant des centaines de milliers d’employés. Ces accords ne bannissent pas complètement l’utilisation de l’IA générative, mais ils fixent des limites sur la manière dont les studios peuvent l’employer, dissipant ainsi les craintes concernant les licenciements dans les équipes de scénaristes et l’utilisation d’images générées par l’IA. Ce premier succès peut laisser présager de futures avancées dans l’organisation du travail au sein d’autres secteurs.
D’autres initiatives menées par des organisations de plaidoyer se sont concentrées sur la sensibilisation des consommateurs aux dangers de l’IA et les ont encouragés à choisir des technologies plus fiables lorsque celles-ci sont disponibles. L’association Consumer Reports a diffusé trois courts métrages explorant les biais des algorithmes dans les dispositifs médicaux, les prêts hypothécaires et la reconnaissance faciale dans une campagne intitulée « Bad Input ». Des documentaires comme « Coded Bias » (2021) ont également servi de points de départ importants pour des discussions grand public sur des sujets tels que la désinformation et les biais raciaux dans les algorithmes de reconnaissance faciale. Le livre « Unmasking AI » de Joy Buolamwini (2023) élargit quant à lui les expériences présentées dans « Coded Bias » et évoque la création de l’Algorithmic Justice League. Même ceux qui tiennent des points de vue moins nuancés sur l’IA ont joué un rôle crucial dans la sensibilisation des consommateurs. En 2023, par exemple, le Center for Humane Technology a organisé une conférence très suivie sur les risques associés aux technologies d’IA, fournissant ainsi un contexte supplémentaire sur la manière dont la course à la capitalisation sur l’IA peut entraîner des défaillances en matière de sécurité.
Les campagnes publiques de Mozilla sur les questions liées à l’IA et à la technologie grand public ont mobilisé plus de 500 000 personnes dans le monde depuis 2021, entraînant des changements significatifs dans les produits et les normes de l’industrie. Ces campagnes ont sensibilisé les consommateurs aux problèmes liés à l’IA et à la technologie qu’ils utilisent dans leur vie quotidienne, des moteurs de recherche aux réseaux sociaux en passant par les sonnettes vidéo et les voitures connectées. En juillet 2023, Slack a mis en place une fonction de blocage suite à une campagne de la société civile initiée par Mozilla. En septembre 2023, YouTube a annoncé qu’il donnerait aux chercheurs de la société civile accès à des données cruciales, à l’issue d’une campagne menée pendant plusieurs années par Mozilla. Le même mois, l’Alliance for Automotive Innovation a plaidé en faveur d’une loi fédérale sur la confidentialité aux États-Unis, suite à la pression publique suscitée par la série de rapports *Confidentialité non incluse de Mozilla, qui s’est récemment penchée sur les problèmes de confidentialité liés aux voitures connectées. Nous avons également lancé une nouvelle saison de notre podcast IRL en 2023, axée sur les développeurs d’IA qui mettent sur le marché des produits responsables.
Au-delà des campagnes de plaidoyer et de sensibilisation, nous assistons à l’émergence de nouveaux produits grand public fondés sur les principes d’une IA digne de confiance. Des entreprises bien établies comme Intel et Adobe, des start-up telles que Reality Defender, et des institutions de recherche comme le MIT Media Lab travaillent sur des moyens d’identifier les deepfakes, de certifier l’authenticité des images et de lutter contre la désinformation et la mésinformation. Twilio a lancé l’initiative AI Nutrition Facts, qui offre aux consommateurs une façon conviviale de comprendre comment un produit d’IA utilise leurs données. De son côté, en août 2023, le groupe DeepMind de Google a également lancé en version bêta SynthID, un outil permettant d’identifier et de marquer les contenus générés par IA.
En mai 2023, Mozilla a acquis Fakespot, une entreprise qui protège les consommateurs en utilisant l’IA pour détecter en temps réel les faux avis de produits et les vendeurs tiers. Sa technologie analyse des milliards d’avis de consommateurs pour identifier rapidement les activités suspectes et recommander de meilleures alternatives. Fin 2023, nous avons lancé Fakespot Chat, qui utilise la puissance de l’IA générative pour répondre rapidement aux questions des acheteurs sur les produits, aidant ainsi les consommateurs à gagner du temps et économiser de l’argent.
Ce qu’il reste à accomplir
Bien que nous ayons constaté une dynamique positive pour donner aux travailleurs plus de voix dans l’intégration des outils d’IA sur le lieu de travail, la plupart des utilisateurs occasionnels ne se posent pas de questions quant à la fiabilité de ces systèmes. Comme il existe peu d’alternatives connues aux outils populaires basés sur des modèles fermés, de nombreux consommateurs peuvent se sentir obligés de choisir les outils des entreprises dont la technologie est déjà intégrée dans leur quotidien.
Difficile de leur reprocher de choisir les outils les plus pratiques qui semblent a priori dignes de confiance, surtout lorsqu’il existe peu d’alternatives. La communauté « open source » doit continuer à développer des technologies d’IA pour proposer aux utilisateurs de meilleures options. Les organisations de la société civile doivent continuer à alerter sur le potentiel de nuisance des IA non contrôlées et poursuivre le financement de meilleures alternatives. Enfin, les régulateurs doivent tout faire pour maintenir un marché concurrentiel doté de systèmes de protection pour les consommateurs, et fournir ainsi à l’écosystème de l’IA les garde-fous nécessaires pour se développer.
Chez Mozilla, nous travaillons à intégrer des technologies d’IA plus fiables dans nos produits grand public dans les années à venir, et nous élargissons nos recherches participatives sur le fonctionnement de l’algorithme de recommandation de TikTok. Nous devrons également continuer à sensibiliser les consommateurs aux risques que l’IA fait peser sur la confidentialité et à encourager la demande de méthodes préservant la vie privée dans les produits d’IA.
Un public bien informé joue un rôle essentiel dans le puzzle de la responsabilité de l’IA.
Renforcer les réglementations et les incitations en matière d’IA
Le dernier levier abordé dans notre rapport original soulignait la nécessité pour les gouvernements du monde entier de développer une vision, des compétences et des capacités afin de réguler efficacement l’IA. Bien que les normes de l’industrie et la demande des consommateurs jouent un rôle crucial dans la promotion d’une IA digne de confiance, nous ne pourrons pas avancer sans politiques visant à encourager des pratiques plus responsables et des mécanismes juridiques contraignant les entreprises à rendre compte de leurs actes.
Des progrès positifs
Nos collègues chercheurs défendent depuis des années l’idée d’une réglementation nécessaire de l’IA. Mais le boom de l’IA générative a rendu ces appels impossibles à ignorer. La prise de conscience massive des consommateurs à l’égard de l’IA met davantage de pression sur les législateurs pour qu’ils passent à la vitesse supérieure. Résultat : il existe aujourd’hui un élan plus fort que jamais derrière les efforts politiques mondiaux visant à élaborer et à mettre en œuvre des réglementations efficaces et réfléchies en matière d’IA.
L’UE avance plus rapidement que certaines autres régions du monde. Le Parlement européen vient d’approuver une loi sur l’encadrement de l’IA baptisée EU AI Act, la première du genre, proposée en avril 2021. Ce cadre législatif adopte une approche principalement basée sur les risques pour réguler l’IA, avec des règles spécifiques pour les modèles d’IA les plus puissants. Bien qu’il y ait certaines limites à cette approche, l’EU AI Act est à l’heure actuelle la loi sur l’IA la plus complète au monde et elle aura des impacts significatifs sur les efforts menés partout dans le monde pour la gouvernance de l’IA. Cette loi vient compléter d’autres lois technologiques récemment adoptées au niveau européen, notamment le règlement sur les services numériques (DSA) ou le règlement sur les marchés numériques (DMA).
Nos équipes en charge des actions politiques ont joué un rôle clé dans le développement de l’EU AI Act, et ce dès les premiers jours. En travaillant avec nos alliés, nous avons réussi à obtenir plus de transparence, des règles contraignantes pour les modèles fondamentaux ainsi que des obligations ciblées de diligence raisonnable tout au long de la chaîne de valeur de l’IA. Mais le travail est encore loin d’être terminé. Aux États-Unis, où sont basés bon nombre des plus grands noms de l’IA,
la discussion réglementaire commence également à s’intensifier. L’administration Biden cherche à passer d’engagements volontaires en matière de sécurité de l’IA à des règles concrètes. En octobre 2023, le président Biden a publié une ordonnance exécutive pour une IA sûre, sécurisée et digne de confiance. Comprenant des directives pour renforcer la sécurité, la confidentialité, l’équité et la concurrence, elle permet de garantir que le développement de l’IA sera accompagné de garde-fous réglementaires suffisants. En novembre 2023, la vice-présidente Kamala Harris a annoncé des mesures provisoires pour limiter les risques lors de l’utilisation de l’IA par les services fédéraux. Une décision qui a fait passer le développement de meilleures normes pour l’IA avant le pouvoir d’achat du gouvernement.
Bien que les États-Unis n’aient pas réussi à adopter une législation exhaustive sur la confidentialité, les législateurs sont bel et bien désireux de réglementer correctement l’IA. En plus des engagements pris par les entreprises du secteur de l’IA à la Maison-Blanche à l’été 2023, le leader de la majorité au Sénat, Chuck Schumer, a organisé une série de forums d’information sur l’IA à huis clos pour les législateurs, auxquels ont participé des PDG d’entreprises technologiques, des chercheurs et des leaders des droits civiques. Ces forums doivent absolument donner la parole à une grande diversité de personnes, et il est encourageant de voir que les groupes politiques sollicitent des experts de l’IA, y compris Mozilla et ses partenaires, pour élaborer une réglementation plus efficace.
Dans une déclaration écrite rédigée spécialement pour le forum, nous avons souligné l’importance de placer la vie privée, l’ouverture et la transparence au cœur des politiques en matière d’IA, et d’en faire les bases d’une réglementation responsable. Nous avons invité les décideurs politiques à aller au-delà d’une simple vision binaire qui oppose IA ouverte et IA fermée. Et nous avons plaidé pour un environnement équilibré, où les deux écosystèmes peuvent prospérer, favoriser l’innovation, garantir la libre concurrence mais aussi protéger les droits et la sécurité des individus, tout en limitant les risques potentiels. Nous avons également insisté sur la nécessité pour les législateurs de défendre par défaut la protection de la vie privée dans les technologies d’IA, avec des lois sur la vie privée comme l’American Data Privacy and Protection Act.
Nos responsables apportent également leur expertise au Royaume-Uni. Mozilla.ai a ainsi témoigné devant la Commission des Communications et du Numérique de la chambre des Lords du Royaume-Uni, dans le cadre de son enquête sur les LLM. Au cours de notre intervention, nous avons mis en avant le rôle que jouent les approches ouvertes de l’IA dans l’innovation, les lacunes du marché qui empêchent les acteurs de plus petite taille d’accéder à des ressources informatiques comme les GPU, et la nécessité pour les gouvernements d’investir davantage dans les infrastructures d’IA pour promouvoir une concurrence libre. Enfin, nous avons souligné l’importance de l’éducation numérique pour les entreprises, les écoles et les services publics, afin de mieux comprendre les capacités de ces modèles et d’apprendre à les déployer en toute sécurité dans différents contextes.
Ce qu’il reste à accomplir
Une réglementation est indispensable pour rendre l’IA digne de confiance et limiter les risques liés à cette technologie. Dans le même temps, les régulateurs doivent être conscients de l’impact qu’auront de telles règles sur la concurrence et l’ouverture dans le domaine de l’IA. Les futurs cadres réglementaires devraient garantir que le marché de l’IA reste ouvert à la concurrence et à l’innovation, pour permettre aux entreprises de défier les géants du secteur. Pour ce faire, ils doivent avant toute chose préserver le caractère ouvert de l’IA et garantir l’utilisation de code open source.
L’ouverture et la transparence sont essentielles si nous voulons que les avantages de l’IA profitent à la majorité des humains et ne soient pas uniquement appliqués dans un but commercial. Partout dans le monde, les récentes discussions politiques sur l’ouverture de l’IA ont cruellement manqué de nuance. La raison ? L’influence disproportionnée des grands acteurs de la technologie, qui cherchent à faire tourner les discussions réglementaires à leur avantage. Les fabricants de modèles propriétaires ont cité de potentielles menaces catastrophiques et les ont désignées comme les problèmes les plus importants sur lesquels les législateurs devraient se concentrer, passant totalement sous silence les dommages actuels de l’IA tels que les biais et la discrimination. En octobre 2023, nous avons contesté cette vision avec plus de 1 800 signataires dans une Déclaration commune sur la sécurité et l’ouverture de l’IA:
Oui, les modèles disponibles en open source comportent des risques et des vulnérabilités. Ils peuvent être détournés par des acteurs malveillants ou déployés par des développeurs mal équipés. Mais nous avons constaté encore et encore que cela est également vrai pour les technologies propriétaires. Et que rendre une technologie publique la rend plus sûre, et non pas plus risquée. L’idée selon laquelle un contrôle strict et propriétaire des modèles d’IA fondamentaux est le seul moyen de nous protéger contre les dommages à l’échelle de la société est au mieux naïve, au pire dangereuse.
Des processus gouvernementaux existent d’ores et déjà pour nous aider à aborder les questions plus importantes encore de la gouvernance et la réglementation du code open source. Conformément à l’ordonnance exécutive de l’administration Biden, la National Telecommunications and Information Administration (NTIA) du Département du Commerce des États-Unis examine actuellement les risques et les avantages des modèles LLM disponibles en open source. Et elle invite le public à donner son avis pour éclairer les éventuelles approches réglementaires. Mozilla prévoit de répondre à cette demande pour aider la NTIA à mieux aborder cette question.
Lorsqu’elle est associée à des mécanismes de protection des consommateurs et des règles strictes pour éviter les pratiques anticoncurrentielles, l’ouverture stimule l’innovation et accélère la concurrence en fournissant des ressources communes à l’ensemble de l’écosystème. La concurrence stimule les investissements et la création d’emplois, et offre de meilleures options aux entreprises et aux consommateurs. Mais pour étendre les avantages de l’essor de l’IA au-delà des géants de la tech et mieux répondre aux défis actuels, les législateurs doivent faire de l’application et du renforcement de règles concurrentielles existantes une priorité.
De plus, tandis que les législateurs se familiarisent avec l’IA et ses subtilités, des acteurs malveillants transforment des outils d’IA générative à des fins de désinformation et de déstabilisation politique. Plus de 40 élections nationales sont prévues en 2024. Les décideurs politiques doivent donc agir plus rapidement pour faire face à ces menaces. De notre côté, nous devons saisir cette opportunité pour mieux étudier les impacts de l’IA sur la politique mondiale et renforcer nos systèmes en prévision des prochaines échéances électorales. C’est pour cela que Mozilla met en avant le travail de chercheurs du monde entier révélant des inégalités dans la manière dont les plateformes abordent les élections partout dans le monde. Nous attirons l’attention sur l’approche « copier-coller » que les plateformes ont tendance à adopter lors des élections, en particulier pour les pays africains, asiatiques ou latins. Et nous démontrons l’impact dévastateur que ces décisions peuvent avoir sur l’écosystème informationnel de tout un pays, surtout là où les institutions démocratiques sont fragiles.
Les futurs cadres réglementaires devraient garantir que le marché de l’IA reste ouvert à la concurrence et à l’innovation, pour permettre aux entreprises de défier les géants du secteur.
Vers une IA digne de confiance
Le paysage de l’IA évolue à une vitesse jamais vue et l’écosystème de l’IA digne de confiance se développe en parallèle. Pour capitaliser sur la dynamique positive que nous avons observée au cours des trois dernières années, nous devons prendre des mesures ciblées sur chacun de nos quatre leviers clés : les normes de l’industrie, les nouvelles technologies et produits, la demande des consommateurs, ainsi que la réglementation et les incitations.
Les prochaines étapes pour Mozilla
Nous allons poursuivre notre action pour que les utilisateurs aient confiance en l’IA, en faisant de l’ouverture notre fil directeur. En réalisant le potentiel des approches open source et en plaidant en faveur de marchés équitables et ouverts, nous pourrons faire de l’IA digne de confiance une réalité. Une réalité qui repose sur la capacité d’action et le principe de responsabilité.
Voici nos objectifs :
- Faire évoluer le discours public sur l’IA (digne de confiance) Nous avons l’opportunité de tirer parti des avantages exponentiels de l’IA et un besoin urgent de répondre à des questions difficiles sur les problématiques sociétales et les marchés fermés. Mozilla travaillera avec des militants, des constructeurs et des décideurs politiques pour veiller à ce que cette histoire plus nuancée sur l’IA trouve un écho. Nous collaborons d’ores et déjà avec des organisations de la société civile dans le monde entier pour faire évoluer le discours. Et nous mettons également en lumière les voix des développeurs, des leaders technologiques et des innovateurs responsables pour les aider à établir l’ordre de jour de l’IA dans les médias, les débats politiques et la culture populaire.
- Rendre l’IA générative open source plus digne de confiance et plus grand public. L’IA générative open source gagne du terrain. Notre objectif est de garantir que les modèles open source soient fiables, sûrs, utiles et faciles à utiliser. Des projets initiés par Mozilla comme la plateforme des petits modèles de langage Communal AI, l’ensemble de données Common Voice et llamafile sont des modèles locaux et plus accessibles servant directement cet objectif.
- Donner du pouvoir aux consommateurs et leur offrir de vrais choix. À une époque où l’IA est de plus en plus intégrée dans nos vies quotidiennes, nous devons défendre des produits qui privilégient et illustrent les normes les plus élevées en matière de confidentialité, de sécurité et de transparence. Grâce aux précieuses informations obtenues via des technologies comme Fakespot, nous allons plus loin dans notre engagement à intégrer dans notre gamme de produits des capacités d’IA de pointe qui donnent réellement du pouvoir aux consommateurs. Et nous augmentons l’impact de ces efforts grâce à des initiatives comme *Confidentialité non incluse, essentielles pour aider les consommateurs à faire des choix éclairés en matière de produits.
- Investir dans l’écosystème d’une IA digne de confiance et open source. Aucune entreprise ou organisation seule ne peut faire le poids face aux géants de la tech, mais c’est à la portée d’une communauté. C’est pourquoi nous poursuivrons et étendrons nos investissements dans les start-up, les projets open source et les organisations à but non lucratif qui développent une IA digne de confiance. Nous le ferons à la fois via des investissements directs ou via l’octroi de subventions. Avec les ressources adéquates, cet écosystème peut défier les grands acteurs et faire prendre une meilleure direction à l’IA.
- Aider les régulateurs à élaborer et mettre en œuvre une réglementation pragmatique de l’IA. Le EU AI Act, l’ordonnance exécutive sur l’IA aux États-Unis et des initiatives similaires dans d’autres pays montrent que les décideurs politiques prennent très au sérieux l’IA digne de confiance. Mozilla a donc décidé d’augmenter les ressources allouées pour aider les décideurs politiques à mettre en œuvre des réglementations et des politiques à la fois utiles et pragmatiques, tant du point de vue politique qu’opérationnel. Cela passe notamment par la publication de recherches sur des sujets tels que les modèles d’IA open source, la concurrence et la vie privée sur lesquels les décideurs politiques peuvent s’appuyer. Cela inclut également des rencontres avec des décideurs politiques pour partager notre expertise et notre expérience, et présenter des avancées positives en matière de politique dans le monde entier.
Les prochaines étapes pour l’écosystème de l’IA digne de confiance
Vous le savez, chez Mozilla nous ne sommes jamais les derniers à nous engager. Mais nous ne pouvons pas faire de l’IA digne de confiance une réalité sans travailler avec vous dans tout l’écosystème technologique. Voici ce que vous pouvez faire :
- Développeurs : cherchez et participez à des projets d’IA open source dignes de confiance. Plutôt que de vous tourner vers les modèles propriétaires les plus connus, profitez des avancées dans les LLM open source, et formez-vous grâce à des ressources comme notre Guide sur l’IA. Lorsque vous créez de nouveaux outils, échangez avec d’autres développeurs, mais aussi des utilisateurs et des chercheurs issus de divers milieux pour bénéficier d’autres points de vue et découvrir de nouvelles perspectives. Comprendre comment l’IA affectera les personnes qui ne pensent pas comme vous rendra votre projet ou produit encore meilleur.
- Consommateurs : exercez un regard critique, et ne perdez pas de vue que vous avez le choix. Les consommateurs ne peuvent pas choisir les entreprises qui développent l’IA, mais ils peuvent choisir les produits les plus dignes de confiance lorsqu’ils sont disponibles, et les exiger lorsqu’ils ne le sont pas. Nous en avons sans cesse la preuve : la pression publique peut entraîner des changements, même au sein des entreprises les plus puissantes au monde. Apprenez à voir plus loin que « l’image cool » des nouveaux outils d’IA, et pesez le pour et les contre avant d’essayer un produit ou un service. Des guides comme *Confidentialité non incluse offrent des comparatifs clairs dans un langage simple pour vous aider à prendre des décisions avisées sur à peu près tout, des assistants vocaux aux accessoires connectés pour la maison.
- Décideurs politiques : donnez la priorité à l’ouverture et la responsabilité dans les nouvelles réglementations concernant l’IA. Les géants de la tech font pression pour une réglementation des LLM par le biais de licences, en prétextant un impératif de sécurité. Mais nous savons par expérience que limiter les personnes, les entreprises ou les organisations qui peuvent accéder ou bénéficier des nouvelles technologies numériques ne garantit nullement plus de sécurité. En revanche, les principes d’ouverture et de responsabilité peuvent fonctionner, et c’est aux décideurs politiques qu’il revient d’adapter la législation en conséquence.
- Militants de la société civile : visez les points de convergence entre l’IA et les problèmes qui préoccupent vos communautés. Que votre organisation s’occupe des droits de l’homme, de la justice climatique, des droits LGBTQ+ ou encore de la justice raciale, l’IA est un choix pertinent. La philanthropie peut contre-balancer l’influence des géants de la tech, notamment en soutenant les petits acteurs qui explorent des approches d’IA qui tirent vers le haut la société tout entière, pas seulement le cours des actions en bourse. Concentrez vos efforts et vos actions sur le financement de projets qui placent la capacité d’agir, la transparence et la responsabilité au cœur de l’IA, et entrez en contact avec toutes les personnes et toutes les organisations en lien avec votre travail.
- Investisseurs : financez les entreprises, les organisations et les projets axés sur l’IA digne de confiance. Il peut être tentant de placer votre argent sur les grands leaders du secteur, mais les modèles économiques d’IA alternatifs qui donnent la priorité à la vie privée et au bien-être des utilisateurs représentent une formidable opportunité. Que vous soyez un fonds d’investissement en capital-risque, un investisseur institutionnel ou encore un philanthrope, soutenir financièrement la croissance de l’écosystème d’IA digne de confiance peut contribuer à limiter les risques liés à l’IA tout en répartissant les retours bien au-delà des géants de la technologie.
À plus ou moins court terme, l’IA impactera chaque parcelle du globe. Pour garantir qu’elle tienne ses promesses pour l’humanité, nous devons continuer à réunir des technologues, des militants, des législateurs et des citoyens ordinaires pour former une large coalition aux perspectives diverses. Il reste encore beaucoup à faire mais, avec un mouvement ancré dans des principes comme l’ouverture, la capacité d’action et la responsabilité, l’IA plus digne de confiance est à notre portée. À nous de jouer !
Envoyez-nous un e-mail à l’adresse [email protected] pour nous donner votre avis sur le rapport et partager vos exemples favoris illustrant une utilisation de l’IA qui favorise la confiance et améliore le quotidien des individus.
Avec un mouvement ancré dans des principes comme l’ouverture, la capacité d’action et la responsabilité, l’IA plus digne de confiance est à notre portée.
Ressources complémentaires
- This is the real lesson to take away from the OpenAI debacle, Fast Company (tribune libre), décembre 2023 : dans une tribune, Mark Surman de Mozilla explique comment la bataille pour la gouvernance d’OpenAI souligne le besoin d’institutions publiques qui privilégient les intérêts publics plutôt que le profit, en particulier à l’ère de l’IA, malgré l’échec du modèle à but non lucratif d’OpenAI.
- When AI doesn’t speak your language, Coda, octobre 2023 : une mise en lumière des défis auxquels sont confrontées les langues minoritaires avec l’IA, alors qu’une meilleure technologie pourrait à la fois soutenir l’utilisation de ces langues et accroître la surveillance.
- AI’s Present Matters More Than Its Imagined Future, The Atlantic (tribune libre), octobre 2023: Inioluwa Deborah Raji, une chercheuse associée à Mozilla, revient sur sa participation à l’un des forums de réflexion sur l’IA organisés par le sénateur Chuck Schumer, et explique pourquoi les préjudices actuels sont plus urgents que les risques existentiels hypothétiques de l’IA.
- How should regulators think about "AI"?, Emily M. Bender (vidéo), octobre 2023 : Mme Bender a pris la parole lors d’une table ronde virtuelle au sujet de l’IA sur le lieu de travail, organisée par le membre du Congrès américain Bobby Scott. À cette occasion, elle a présenté les six types d’automatisation et fourni des recommandations pour la réglementation de l’IA.
- The battle over Open-Source AI, Ben’s Bites (newsletter), octobre 2023: cet article résume la position des grandes entreprises de l’IA sur la question de la régulation des logiciels avancés d’IA open source.
- Artificial Intelligence: Advancing Innovation Towards the National Interest, Clément Delangue, Hugging Face (version écrite de son témoignage devant le Congrès), juin 2023 : dans son témoignage, le PDG de Hugging Face met l’accent sur l’importance de l’innovation en matière d’IA ouverte et sur la nécessité de mettre en place des mécanismes garantissant que l’IA est sûre, transparente et conforme aux intérêts nationaux.
- We tested ChatGPT in Bengali, Kurdish, and Tamil. It failed., Rest of World, septembre 2023 : les tests de Rest of World ont révélé les difficultés de ChatGPT avec de nombreuses langues sous-représentées. Le système invente fréquemment des mots et échoue dans la logique et la récupération d’informations de base, mettant en lumière les lacunes dans les données d’entraînement de l’IA et le besoin d’un support linguistique adapté.
- The Battle Over Books3 Could Change AI Forever, WIRED, septembre 2023 : cet article revient sur la bataille autour de l’ensemble de données d’entraînement Books3, créé à partir d’une vaste collection d’œuvres littéraires protégées par des droits d’auteur. Il est actuellement au centre de litiges entre les défenseurs d’un accès libre et les détenteurs de droits d’auteur qui se battent pour leurs droits au contrôle et à une compensation financière.
- LoRA Fine-tuning Efficiently Undoes Safety Training from Llama 2-Chat 70B, LessWrong, octobre 2023 : cette étude démontre comment les modèles d’IA peuvent être facilement manipulés pour désactiver leurs mécanismes de sécurité, ce qui soulève des préoccupations majeures concernant leurs versions publiques.
- Removing RLHF Protections in GPT-4 via Fine-Tuning, University of Illinois Urbana-Champaign and Stanford University, novembre 2023 : cette étude révèle que des attaquants peuvent supprimer les protections de l’apprentissage par renforcement avec retour humain (RLHF) dans les modèles de langage comme GPT-4, mettant en évidence le besoin d’une protection renforcée contre de potentiels détournements.
- AI Red-Teaming Is Not a One-Stop Solution to AI Harms, Data & Society, octobre 2023 : ce document politique soutient que, même si des évaluations de la cybersécurité d’une IA peuvent identifier des vulnérabilités techniques précises, elles doivent être associées à d’autres outils de responsabilisation, comme des évaluations de l’impact de l’algorithme, des audits externes et des consultations publiques.
- DeepMind reportedly lost a yearslong bid to win more independence from Google, The Verge, mai 2021 : Google a rejeté la demande de DeepMind d’acquérir plus d’autonomie ainsi que le statut d’organisation à but non lucratif, en raison des pertes financières continues de la filiale en intelligence artificielle et du désir de Google de commercialiser ses recherches en IA.
- These fake images reveal how AI amplifies our worst stereotypes, The Washington Post, novembre 2023 : les générateurs d’images basées sur l’IA comme Stable Diffusion et DALL-E perpétuent des stéréotypes perturbants liés au genre et aux origines ethniques, malgré des tentatives de « détoxification » de leurs données d’entraînement. Une situation qui illustre bien le problème urgent du biais inhérent dans les systèmes d’IA.
- OpenAI is getting trolled for its name after refusing to be open about its A.I., Fortune, mars 2023 : le magazine Fortune détaille les critiques auxquelles OpenAI a été confronté pour son utilisation d’un langage « ouvert » malgré son orientation vers des modèles propriétaires à code source fermé.
- Meta can call Llama 2 open source as much as it likes, but that doesn’t mean it is, The Register (tribune libre), juillet 2023 : Steven J. Vaughan-Nichols affirme que la publication de Llama 2 par Meta sous une « licence communautaire » ne respecte pas les principes du code source ouvert, faisant de l’utilisation de ce terme par l’entreprise davantage une question de marketing que de respect des principes de la communauté du code source ouvert.
Liens complémentaires
- AI Incident Database : un inventaire des préjudices engendrés par l’IA.
- Algorithmic Justice League Harm Collection Tool : permet aux utilisateurs de signaler les préjudices, les biais mais aussi les réussites de l’IA.
- The Data Provenance Initiative : une évaluation des ensembles de données à grande échelle
Annexe - Autres projets de Mozilla pour une IA digne de confiance
Changer les normes de développement de l’IA
- Responsible Computing Challenge : en 2023, Mozilla a alloué 2,7 millions de dollars à des universités situées au Kenya, en Inde et aux États-Unis pour qu’elles intègrent l’informatique responsable à leurs programmes d’études. Résultat : des milliers d’étudiants — les futurs développeurs de l’IA — se confrontent actuellement aux questions éthiques de la technologie.
- Guide « Is that Even Legal? » : Mozilla forme les développeurs sur la façon de créer des systèmes d’IA fiables et conformes aux cadres réglementaires établis dans le monde entier. Notre guide propose des études sur la gouvernance des données ainsi que des conseils destinés aux développeurs basés en Allemagne, en Inde, au Kenya et aux États-Unis.
- Africa Innovation Mradi : ce programme tire parti du rôle de Mozilla en tant que coordinateur du web ouvert pour promouvoir des innovations basées sur les besoins des utilisateurs africains, en commençant par l’Afrique de l’Est et l’Afrique australe.
- Mozilla Trustworthy AI Fellowships : bien avant ChatGPT, les titulaires de bourse Mozilla experts en IA digne de confiance étudiaient les défauts, les limites et le potentiel de l’IA. Depuis 2019, plus de 50 titulaires de bourse ont exploré les impacts de l’IA sur la société.
- Mozilla Festival (MozFest) : trop souvent, les décisions les plus pressantes concernant l’IA sont prises de manière cloisonnée. Mozfest est l’antidote de Mozilla à ce problème. L’événement réunit et met en contact des milliers de militants, d’ingénieurs, de philanthropes et de décideurs du monde entier pour construire et imaginer une IA plus fiable.
- Lelapa AI : Mozilla Ventures a investi dans la société Lelapa AI, basée en Afrique du Sud. Celle-ci vient de lancer son premier produit, Vulavula, un nouvel outil d’IA qui convertit la voix en texte et détecte les noms de personnes et des lieux dans des textes écrits dans quatre langues sud-africaines. La PDG de Lelapa, Pelonomi Moila, a récemment figuré dans le classement TIME100 des personnes les plus influentes dans le domaine de l’IA.
Créer de nouvelles technologies et de nouveaux produits
- Responsible AI Challenge : en mai 2023, Mozilla a organisé un événement avec 175 participants, 7 ateliers et 3 grands conférenciers pour explorer de quelles façons nos principes d’une IA digne de confiance pourraient servir de guide pratique pour les développeurs. L’événement a attribué 100 000 dollars aux gagnants des défis qui ont présenté des projets d’IA responsable.
- Mozilla Internet Ecosystem (MIECO) : une source de financement pour les innovateurs qui contribuent à développer une expérience internet plus saine. L’un des projets soutenus est llamafile, qui facilite l’accès des grands modèles de langage open source aux développeurs et aux utilisateurs finaux.
- Mozilla AI Guide : une ressource créée par et pour la communauté Mozilla, dans laquelle les développeurs peuvent se rassembler pour explorer et stimuler des innovations en matière d’IA générative.
- Mozilla Common Voice : le plus grand ensemble de données open source multilingue au monde, utilisé par des chercheurs, des universitaires et des développeurs du monde entier pour entraîner des technologies vocales et les rendre plus inclusives et accessibles.
- Mozilla Technology Fund (MTF) : depuis 2022, MTF soutient des projets open source qui explorent les impacts de l’IA sur un grand nombre de questions allant de la partialité au changement climatique. Countering Tenant Screening en est l’un des projets notables. Il a mis en lumière les biais et les discriminations présents dans un service de présélection de locataires alimenté par l’IA et utilisé par les propriétaires.
- Mozilla Data Futures Lab (DFL) : la course à la collecte de données pour construire et tester des modèles d’IA a soulevé de nouvelles questions légales et éthiques concernant l’origine et la propriété des données. Le Mozilla Data Futures Lab est un incubateur de produits et de plateformes qui visent à redéfinir la gestion responsable des données.
- Mozilla.ai : Mozilla a joué un rôle important dans le défi Large Language Model Efficiency Challenge NeurIPS 2023, dans l’atelier Conference on Knowledge Discovery and Data Mining (KDD) sur l’évaluation des systèmes de recommandation, ainsi que dans la recherche de nouvelles méthodes pour réaliser efficacement la classification de modèles fermés comme ChatGPT.
- Themis AI, une start-up située à Cambridge dans le Massachusetts et issue du CSAIL du MIT, a bénéficié d’un investissement de la part de Mozilla Ventures. Themis, qui a pour vocation de s’attaquer aux biais et aux incertitudes dans les modèles d’IA, a développé un outil nommé CAPSA, capable d’estimer automatiquement le niveau d’incertitude de n’importe quel modèle d’apprentissage automatique.
Sensibiliser les consommateurs
- *Confidentialité non incluse : les guides *Confidentialité non incluse dévoilent les réalités et les risques des appareils connectés. Un guide de 2023 portant sur les voitures a suscité une attention inédite. En citant nos recherches, le sénateur américain Ed Markey a écrit à 14 constructeurs automobiles aux États-Unis pour obtenir des informations sur leurs activités de collecte, d’utilisation et de vente de données personnelles.
- IRL Podcast : la dernière saison du podcast IRL a mis en avant des innovateurs en IA digne de confiance venus des quatre coins du monde et issus de la société civile, de l’industrie ou encore de la sphère politique. L’objectif de chaque épisode ? Établir un lien entre l’IA et les problématiques qui leur tiennent à cœur, pour rappeler à l’audience toujours plus nombreuse du podcast que l’humain ne peut être dissocié de l’algorithme. Depuis le lancement de la saison 7, en octobre 2023, IRL a été téléchargé plus de 100 000 fois.
- Philanthropic Advocacy : en 2023, Mozilla s’est associé au bureau de la vice-présidente Kamala Harris pour discuter du rôle de la philanthropie dans le domaine de l’IA, aux côtés d’autres fondations de premier plan. Nous avons également publié un ensemble de principes relatifs au financement de l’IA, en nous appuyant sur plus de 4 ans d’expérience dans le financement de l’IA digne de confiance.
- Open Source Research and Investigation Team : l’équipe OSRI exploite des données de crowdsourcing pour rendre les systèmes d’IA opaques et influents plus transparents et plus responsables. L’équipe a notamment produit plusieurs rapports de recherche originaux sur l’algorithme de recommandation de YouTube.
- Mozilla Innovation Week : en décembre 2023, Mozilla a présenté les coulisses de certaines de ses initiatives autour de l’IA, y compris Solo, MemoryCache, AI Guide ou llamafile. Ces vidéos sont diffusées sur notre serveur Discord dédié à l’IA et sur la chaîne YouTube des développeurs de Mozilla. L’objectif : partager de manière transparente nos travaux en cours et nos objectifs.
- MemoryCache : ce projet innovant de Mozilla offre une solution qui permet d’enrichir un modèle personnel sur un appareil avec des fichiers enregistrés localement depuis le navigateur. Résultat : une expérience plus personnalisée sans faire de sacrifice ni sur l’autonomie ni sur la vie privée.
Renforcer les réglementations et les incitations en matière d’IA
- Joint Statement on AI Safety and Openness : signée par plus de 1 800 scientifiques, décideurs, ingénieurs, militants, entrepreneurs, enseignants et journalistes, cette lettre ouverte appelle les législateurs du monde entier à adopter les principes d’ouverture, de transparence et d’accès pour atténuer les préjudices causés par les systèmes d’IA.
- Norme C2PA : Truepic, la société de gestion de portefeuille de Mozilla Ventures et un membre important du C2PA, plaide en faveur d’une norme technique ouverte pour la vérification des contenus, y compris pour ceux issus des IA génératives. La norme C2PA offrira aux éditeurs, aux créateurs et aux consommateurs la possibilité de retracer l’origine des contenus générés par l’IA.
- EU and US Advocacy Campaigns : Mozilla s’est fortement impliqué dans l’AI Act de l’UE et a travaillé avec les décideurs politiques aux États-Unis sur la gestion des risques liés à l’IA et les problématiques de responsabilisation.
Merci aux contributeurs suivants : J. Bob Alotta, Ashley Boyd, Ian Carmichael, Moez Draief, Max Gahntz, Linda Griffin, Stephen Hood, Saoud Khalifah, Santiago Martorana, Mohamed Nanabhay, Alondra Nelson, Kasia Odrozek, Becca Ricks, Victor Storchan, Udbhav Tiwari, Imo Udom, Suba Vasudevan et Claire Woodcock.