Hero Image

Fortschritt in Richtung vertrauenswürdige KI vorantreiben

Status-Update zu unserem Paper „Creating Trustworthy AI“ von 2020 und nächste Schritte für mehr Offenheit, Wettbewerb und Verantwortlichkeit in der KI

V. 09 zur öffentlichen Diskussion — 22. Februar 2024
Mark Surman
Ayah Bdeir
Lindsey Dodson
Alexis-Brianna Felix
Nik Marda

Geschrieben von Mark Surman, Ayah Bdeir, Lindsey Dodson, Alexis-Brianna Felix und Nik Marda

PDF herunterladen (20,1 MB)

LIESMICH

Mozilla hat nicht erst gestern mit der Arbeit an KI begonnen – wir fördern, bauen und setzen uns und schon seit Jahren für die Entwicklung einer vertrauenswürdigen KI ein. 2020 veröffentlichten wir ein Whitepaper, in dem wir unsere Vision für eine vertrauenswürdige KI erörterten. Zu jenem Zeitpunkt steckte diese Technologie noch in den Kinderschuhen. Seitdem hat sich vieles geändert. Heute ist KI in unserer Gesellschaft immer mächtiger und weiter verbreitet, und sowohl ihre Versprechen als auch ihre Risiken werden immer deutlicher. Zwar setzt sich eine wachsende Anzahl an Individuen und Organisationen für die Entwicklung einer vertrauenswürdigeren KI ein, allerdings gewinnt diese Herausforderung auch immer weiter an Umfang. Und während wir im Hinblick auf Leitlinien für KI-Systeme Fortschritte gemacht haben, hat sich das KI-Ökosystem immer mehr verschlossen und verdichtet.

Im Hinblick auf die aktuell rasanten Veränderungen in der KI möchten wir uns ansehen, wie viel Fortschritt wir bisher machen konnten und was noch auf der Agenda steht. In diesem neuen Bericht stellen wir den aktuellen Stand unserer Arbeit in Bezug auf die strategischen Themen bis dato dar, die aus unserem 2020 Paper hervorgehen. Außerdem beschreibt er die wichtigsten Initiativen auf diesen Themengebieten – sowohl bei Mozilla als auch in Bezug auf das gesamte Ökosystem. Wichtig ist dabei, zu betonen, dass unser sich ändernder Fokus auf der zentralen Bedeutung von Open-Source für die Entwicklung einer vertrauenswürdigeren KI liegt. Dieser Bericht soll unseren Leser*innen als Wegweiser und Karte dienen, ihre eigene Botschaft über vertrauenswürdige KI zu artikulieren, eine bessere Zukunft für KI aufzubauen und darin zu investieren. Außerdem soll er ihnen Möglichkeiten eröffnen, mit anderen in diesem KI-Ökosystem zusammenzuarbeiten. Wir glauben, dass unsere gemeinschaftliche Arbeit uns dabei helfen kann, Offenheit, Wettbewerb und Verantwortlichkeit in der KI wahrhaftig voranzubringen.

Wir laden Sie ein, uns Ihr Feedback zu unserem Bericht und zum KI-Ökosystem insgesamt zu geben. Durch Ihre Kommentare und eine Reihe an öffentlichen Events sammeln wir das Feedback aus der KI-Community und wenden es an, um unser Verständnis und unsere Vision für die Zukunft einer vertrauenswürdigen KI zu stärken. Bitte teilen Sie uns Ihr Feedback und Ihren Input zum Bericht über [email protected] mit und/oder heben Sie Ihre Lieblingsbeispiele zu KI hervor, die auf eine vertrauenswürdige Art und Weise genutzt wird und das Leben der Menschen verbessert.

Kurzfassung

KI heute

Wir befinden uns an einem Wendepunkt sowohl für die KI als auch für die Gesellschaft insgesamt. Die Technologie schaltet riesige gesellschaftliche Vorteile frei. Dazu zählt alles von der Entdeckung neuer Medikamente und Klimalösungen mithilfe von KI, bis hin zu gesteigerter Produktivität sowohl von Individuen als auch kleinen Unternehmen. Während diese Vorteile tiefgreifend sind, waren auch die durch die KI verursachten Schäden noch nie so dringlich. Die aktuelle Nutzungsweise von KI vereinfacht die Täuschung und Belästigung von Personen in den sozialen Medien, die Aufrechterhaltung von Voreingenommenheit im Strafrechtssystem und die Gewinnung sensibler Informationen aus der Online-Aktivität der Nutzer*innen.

Die heute bestehenden strukturellen Fehler im KI-Ökosystem hindern uns daran, das volle Potenzial aus der KI zu schöpfen. Gleichzeitig bleiben die durch sie verursachten Schäden ungeprüft. Es ist bekannt, dass viele der Innovationen und Anwendungsgebiete der KI von Open-Source und Wissenschaft angetrieben wurden. So wurden beispielsweise das einflussreiche Transformer-Paper und das TensorFlow-Rahmenwerk von Google weitläufig verfügbar gemacht. Beides war für viele KI-Innovationen branchenübergreifend sehr hilfreich. Aktuell verunglimpfen allerdings viele große Tech-Unternehmen eine offene und wettbewerbsorientierte Herangehensweise an KI und ziehen stattdessen ihre eigenen, urheberrechtlich geschützten KI-Modelle und lukrative Cloud-Computing-Unternehmen vor. Das erschwert den Wettbewerb innerhalb des KI-Ökosystems.

Aus anderen Branchen wissen wir, dass Wettbewerb Forschung und Entwicklung bedeutend anspornt und er so auch zur Entwicklung günstigerer und sicherer Produkte beiträgt. Außerdem regt er Investitionen und die Schaffung von Arbeitsplätzen an. Fehlende Offenheit und ein Mangel an Wettbewerb erschweren folglich die Förderung von Verantwortlichkeit in der KI, da beides zu weniger unabhängiger Forschung und Zusammenarbeit führt. Außerdem verhindert dies auch die kritische Betrachtung durch die Öffentlichkeit und Behörden und setzt die Marktbarrieren für neue Akteure hoch, deren Fokus auf der Schaffung einer verantwortlichen KI liegt.

In einer Welt, in der KI jede Branche und Facette der Gesellschaft betrifft, brauchen wir strukturelle Änderungen, um die Ursachen für die Schädlichkeit der KI heute zu bekämpfen und die positiven Vorteile der KI freizuschalten. So entsteht eine vertrauenswürdige KI: durch Technologien, die zur Unterstützung von Verantwortlichkeit und Wirkung gebaut und eingesetzt werden, und die das individuelle und kollektive Wohlbefinden fördern.

Eine altbekannte Geschichte

Wir bei Mozilla kennen uns mit dieser Situation genauestens aus. Zu den Anfangszeiten des kommerziellen Internets in den späten 1990er-Jahren stand Microsoft im Begriff, den Markt für Webbrowser zu monopolisieren und damit Nutzer*innen einzusperren, Wettbewerber auszuschalten und Innovation online im Keim zu ersticken. Das Internet stand in den Startlöchern, die Gesellschaft grundlegend zu verändern, aber der Internetzugriff wurde zunehmend von einer Einheit kontrolliert. Als Reaktion auf diese Entwicklung schuf Mozilla den Open-Source-Browser Firefox. Das wiederum sorgte für die nötige Konkurrenz auf dem Markt und hob die Anforderungen an Datenschutz, Sicherheit und Funktionalität branchenumfassend an. In den seither vergangenen 25 Jahren haben wir mit unseren Produkten, Investitionen und unserem Einsatz fortlaufend die Macht von Big Tech im Internet bekämpft.

Deshalb waren wir beunruhigt, als sich in den vergangenen zehn Jahren ein ähnliches Muster im KI-Ökosystem abzuzeichnen begann. 2020 beschrieben wir unsere Vision für vertrauenswürdige KI und hoben viele der Probleme hervor, die wir im KI-Ökosystem sahen. Wir hoben vier Hebel hervor, die wir bedienen konnten, um in großem Maßstab eine vertrauenswürdige KI zu ermöglichen. Außerdem mobilisierten wir die Mozilla-Community, genau diese Hebel zu bedienen.

Seitdem baut Mozilla die Weiterverfolgung dieser Vision aus, investiert darin und setzt sich aktiv für sie ein. Wir investieren in neue Technologien und Produkte, um vertrauenswürdige KI in Aktion zu zeigen und bieten Konsument*innen mehr Auswahl und mehr Selbstbestimmung. Wir klären politische Entscheidungsträger weltweit über die bestehenden Risiken und Vorteile von KI auf, um intelligentere Richtlinien und fairere Marktdynamiken zu herauszubilden. Wir versammeln gleichgesinnte Entwickler*innen, Forschende und Aktivist*innen um uns, um einen Konsens rund um die Entwicklung einer vertrauenswürdigen KI zu erreichen und Initiativen zu finanzieren, um KI vertrauenswürdiger zu machen. Wir helfen Konsument*innen dabei, an die Wahl von KI-Produkten kritischer heranzugehen und regen Gesetzgeber dazu an, Offenheit und Verantwortlichkeit in KI-Richtlinien zu priorisieren.

Fortschritt und nächste Schritte für eine vertrauenswürdige KI

In unserem ursprünglichen Paper schlugen wir vier wichtige Hebel vor, um die Entwicklung einer vertrauenswürdigeren KI voranzutreiben: (1) die Änderung von Normen für die KI-Entwicklung, (2) die Entwicklung neuer Technologien und Produkte, (3) die Sensibilisierung der Verbraucher*innen und (4) die Stärkung von KI-Vorschriften und -Anreizen. In diesem Bericht zeigen wir auf, in welchen Bereichen dieser Hebelszenarien wir den positivsten Fortschritt verzeichnen können und in welchen Bereichen es noch mehr Arbeit bedarf.

Wichtigste Erkenntnisse

01 Normen

Die Menschen, die für den desolaten Zustand des Internets verantwortlich sind, entwickeln KI. Big-Tech-Unternehmen und die von ihnen unterstützten KI-Start-ups beherrschen aktuell die KI. Sie haben undurchsichtige, zentralisierte KI-Modelle entwickelt und nutzen Daten, die sie von uns gesammelt haben. Glücklicherweise setzen sich zunehmend mehr Start-ups, Entwickler*innen, Pädagog*innen, Wissenschaftler*innen, Forschende und führende Personen in der Zivilbevölkerung dafür ein, diese Normen zu ändern. Dabei liegt der Fokus auf der Entwicklung einer offenen, transparenten und vertrauenswürdigen KI.

02 Produkte

Vertrauenswürdigere KI-Produkte müssen die Norm werden. In den letzten 18 Monaten haben generative Blackbox-KI-Tools Einzug in den Mainstream der Wirtschaft und des öffentlichen Bewusstseins gehalten. Gleichzeitig sind dutzende Start-ups und Forschungsprojekte entstanden, um Open-Source-Modelle, Auditing-Tools und Datenplattformen zu entwickeln, die einen anderen Weg beschreiten. Diese sind zwar noch nicht im Mainstream angekommen, stellen aber trotzdem die Saat für ein besseres KI-Ökosystem dar.

03 Konsument*innen

Eine engagiertere Öffentlichkeit braucht bessere KI-Optionen. Verbraucher*innen beginnen, darauf zu achten, wie KI sich auf ihr Leben auswirkt. Arbeitende – von Lieferant*innen bis Hollywood-Autor*innen – wehren sich gegen den Einfluss, den die KI auf ihre Leben nimmt. Trotzdem ist bisher eine Welle an Mainstream-Konsumgütern ausgeblieben, die den Konsument*innen die Wahl gibt, wie sie mit KI interagieren wollen. Und das ist eine große Marktlücke.

04 Richtlinien

Regierungen machen Fortschritte, während sie sich mit widersprüchlichen Einflüssen auseinandersetzen. Zwar sind Gesetzgeber um eine Regulierung von KI bemüht, allerdings werden sie auch mit widersprüchlichen Botschaften konfrontiert, insbesondere aus der Branche. Die einen wollen keine Richtlinien. Die anderen fordern, dass die Kontrolle über innovative KI bei einigen wenigen Unternehmen liegen sollte. Einige Gesetzgeber wählen einen Mittelweg: Sie hören auf leisere Stimmen aus der Branche, Wissenschaft und Zivilgesellschaft, die sich für einen ausgeglichenen Ansatz stark machen.

Dieser Bericht zeigt, dass wir seit 2020 bedeutende Fortschritte gemacht haben. Er zeigt aber auch, dass es noch viel mehr Arbeit bedarf. Deshalb sollten wir unsere Anstrengungen nochmals verdoppeln und uns unseren wichtigsten Prinzipien wieder verschreiben. Dieser Bericht zeigt, wie das aussehen könnte. Er umreißt Mozillas fortlaufende Bemühungen, das Narrativ über KI zu verlagern, generative Open-Source-KI vertrauenswürdiger zu machen und mehr in den Mainstream zu holen und Verbraucher*innen mit echten Optionen zu ermächtigen. Er hebt hervor, wie wir weiterhin in das vertrauenswürdige und Open-Source KI-Ökosystem investieren und Gesetzgebern dabei helfen werden, pragmatische KI-Richtlinien auf den Weg zu bringen. Außerdem zeigt der Bericht auf, wie Entwickler*innen, Verbraucher*innen, Gesetzgeber, Befürwortende und Investoren ihre jeweilige Position wirksam einsetzen können, um das KI-Ökosystem in eine positivere Richtung zu lenken.

Wir alle müssen zusammenarbeiten, um diese Vision Wirklichkeit werden zu lassen. Es gilt, keine Zeit zu verschwenden – legen wir los!

In einer Welt, in der KI jede Branche und Facette der Gesellschaft betrifft, brauchen wir strukturelle Veränderungen, um die Ursachen für die Schädlichkeit der KI heute zu bekämpfen und die positiven Vorteile der KI zu nutzen.

Einführung: KI und ihre Herausforderungen, Risiken und Chancen

Größeres öffentliches Interesse an KI

Investitionen und Entwicklungen in der KI gibt es seit Jahrzehnten, aber die transformierenden Vorteile der Technologie und ihr langfristiges Potenzial, Schäden anzurichten, sind in den letzten drei Jahren geradezu explodiert. Die Veröffentlichung generativer KI-Systeme, die auf großen Sprachmodellen wie ChatGPT, Bard/Gemini und Stable Diffusion basieren (large language models, LLMs), haben die Fantasie der Öffentlichkeit angeregt und es dem Durchschnittsbürger zum ersten Mal ermöglicht, durch natürliche Sprache mit KI-Systemen zu interagieren. Das große Bewusstsein der Verbraucher*innen hat einen wahren KI-Goldrausch bei Big Tech, Entrepreneur*innen und Investoren ausgelöst. Dabei kämpfen neue Player und etablierte Big-Tech-Unternehmen darum, den rasant wachsenden Markt zu dominieren. Gleichzeitig prangern mehr und mehr Menschen an, wie KI-Modelle in großem Stile missbraucht werden und voreingenommen, undurchsichtig und schädlich sein können. Die Medien haben Schwierigkeiten damit, den KI-Hype von der Realität zu unterscheiden. Die Öffentlichkeit ist im Bezug auf KI zwiegespalten, einige bangen um ihre Jobs. Künstler*innen sind aufgrund angeblicher Urheberrechtsverletzungen in KI-Trainingsdaten vor Gericht gegangen. Und Aktivist*innen, Akademiker*innen und Technolog*innen führen intensive Debatten darüber, welche Gefahren der KI zuerst angegangen werden müssen und welche Ansätze für die KI-Entwicklung die sichersten sind.

Ein erhöhtes Bewusstsein für die Risiken von KI ist eine gute Sache. Ohne eine gut informierte Öffentlichkeit, die mehr Transparenz und Verantwortlichkeit einfordert, werden große Technologieunternehmen KI weiterhin nutzen, um vor allem Profit zu machen. Das schadet den Menschen, indem es die Marktmacht dieser Unternehmen weiter festigt. Das könnte wiederum dazu führen, dass wir unsere Chance verpassen, eine KI-Landschaft zu formen, die Menschen überall dient, statt nur Akteuren im Silicon Valley die Gewinnspannen zu erhöhen.

In der Debatte um KI werden vorrangig zwei Positionen eingenommen: ungezügelter Optimismus und Existenzangst. Dabei argumentiert die eine Seite, dass praktisch alle KI und alle Technologien von Grund auf gut sind und nicht durch Richtlinien oder andere Konzepte zur Risikominderung „eingeschränkt“ werden dürfen. Die andere Seite argumentiert hingegen, dass KI eine existenzielle Bedrohung für die Menschheit darstellt und auf eine Art und Weise begrenzt werden muss, die möglicherweise sowohl ihre Vorteile ausbremst als auch ihre bestehenden Risiken verschärfen kann.

Allerdings gibt es eine dritte Denkweise, die einen differenzierteren und praktischeren Blick auf die Risiken und Vorteile von KI wirft. Wir bei Mozilla zählen uns zum Lager der KI-Realist*innen. Wir betrachten das positive Potenzial der KI mit vorsichtigem Optimismus und setzen uns dafür ein, bestehende Probleme wie KI-Voreingenommenheit, Diskriminierung und Arbeitsstellenverluste zu lösen. Diese Ansicht ist nicht neu. Viele Individuen und Organisationen aus der Zivilbevölkerung setzen sich seit Jahren für diesen Ansatz ein. Neben der weiteren Open-Source-Community und anderen Stiftungen, Think Tanks, Forschenden und Aktivist*innen glauben wir daran, dass es dem größeren Wohl der Gesellschaft und Wirtschaft dienen und gleichzeitig die alltäglichen und katastrophalen Risiken mindern würde, die Probleme der KI heute mit Offenheit und Transparenz anzugehen.

Um unsere gemeinsamen nächsten Schritte festzulegen, stellen wir die fünf wichtigsten Herausforderungen dar, die wir in der KI-Landschaft von heute sehen:

  • Viele Menschen haben das mit der KI komplett falsch verstanden. Im vergangenen Jahr hat die Geschichte einer KI, die einen Kampf zwischen Optimist*innen und Untergangsgläubigen schürt, die Aufmerksamkeit von pragmatischeren und bedachteren Ansätzen für KI abgelenkt. Abseits des Medienrampenlichts machten sich KI-Realist*innen bereit, die riesigen Vorteile der KI zu nutzen und gleichzeitig die schweren Fragen über soziale Missstände und geschlossene Märkte anzugehen. Und genau das kann – und sollte – die Geschichte sein, auf der unser Fokus liegt.
  • Big Tech und geschlossene Modelle dominieren das Feld. KI gewinnt zunehmend an Fähigkeiten und wird mehr und mehr angenommen. Damit wird es immer wichtiger, Wettbewerb und den Zugang zum Markt, unabhängige Forschung und die Überprüfung von KI-Systemen durch die Öffentlichkeit zu ermöglichen und neuen Playern mehr Raum zu geben, vertrauenswürdige KI-Produkte zu entwickeln. In den vergangenen Jahren hat das KI-Ökosystem eine scharfe Kurve in Richtung einer geschlossenen Technologie genommen – führende KI-Unternehmen hörten auf, Paper zu veröffentlichen und begannen, Zugriff auf APIs zu verkaufen. Gleichzeitig investierte Big Tech in großem Stil in Akteure wie OpenAI und Anthropic, um so den Markt zu kontrollieren und ihre eigenen Cloud-Computing-Unternehmen zu stärken. Das erschwert das Voranbringen offener Ansätze, die für die Kreation eines besseren KI-Ökosystems für alle notwendig sind.
  • Generative Open-Source KI ist noch nicht im Mainstream angekommen. Im vergangenen Jahr wurde eine ganze Reihe von generativen Open-Source KI-Modellen veröffentlicht – von Llama bis Flacon oder Mistral. Und während diese neuen Modelle an Fahrt aufnehmen und vielversprechend erscheinen, ist es noch ein langer Weg, bis sie einfach zu nutzen und vertrauenswürdig sind. Generative Open-Source-KI wird nicht im Mainstream ankommen, bevor wir diese Probleme angegangen sind.
  • Es gibt immer noch grundlegende Probleme bei der Entwicklung von KI. Die Ursache vieler durch KI verursachter Schäden kann zu den grundlegenden Aspekten des KI-Ökosystems zurückverfolgt werden. Dazu gehört auch, wer KI entwickelt und wie diese Entwickler*innen Daten sammeln und kennzeichnen. So werden die meisten Trainingsdatensets für große Sprachmodelle (Large Language Models, LLM) beispielsweise mithilfe allgemein verfügbarer Daten aus dem Internet gebaut. Deshalb reproduzieren die Systeme Voreingenommenheiten und Stereotypen, die im echten Leben Schaden anrichten können. Der Tech-Branche fehlt es außerdem auch an Diversität, was bedeutet, dass wertvolle Perspektiven in der Entwicklung von KI fehlen, was wiederum verhindert, dass diese Modelle die Breite und Tiefe des menschlichen Daseins widerspiegeln.
  • Gesetzgeber bewegen sich, aber Tech und Schäden bewegen sich schneller. 2023 haben Fortschritte beim europäischen KI-Gesetz und der Erlass der Executive Order on Safe, Secure, and Trustworthy AI in den USA gezeigt, dass Gesetzgeber die Dringlichkeit entschiedener politischer Handlung in Bezug auf KI verstehen. Allerdings bewegen sich das rasante Wachstum der KI und die damit einhergehenden Schäden viel schneller als die Entwicklung und Implementierung neuer Richtlinien. Zwischenzeitlich nehmen Unternehmen wie OpenAI, Meta und Google nur ein Jahr nach der Veröffentlichung von ChatGPT bedeutenden Einfluss auf die Wirtschaft.

Dieser bedeutende Moment in der Geschichte der Technologie bietet KI-Realist*innen die ideale Möglichkeit, um die Richtung der Branche zu beeinflussen und uns alle auf eine bessere technologische Zukunft zuzusteuern. Es ist sowohl dringend notwendig als auch kompliziert, vertrauenswürdige KI zu entwickeln, und unmöglich für eine Einzelperson oder ein einzelnes Unternehmen, alle diese Probleme allein anzugehen. Deshalb haben wir in unserem Paper Creating Trustworthy AI von 2020 die Notwendigkeit betont, über das gesamte Ökosystem hinweg zusammenzuarbeiten. Und deshalb arbeiten wir mit anderen an den Produkten, der Forschung und den Richtlinien, die für die Förderung einer vertrauenswürdigen KI nötig sind.

Offenheit und Wettbewerb fördern

In unserem Paper von 2020, das lange vor der aktuellen Debatte über KI veröffentlicht wurde, umriss unser Team bei Mozilla, wie wichtig es ist, eine KI zu schaffen, der die Menschen vertrauen können und bei der Selbstbestimmung und Verantwortlichkeit im Mittelpunkt stehen. Selbstbestimmung ermöglicht es User*innen, die Kontrolle über ihre Erlebnisse online zu erlangen, mit einem Fokus auf Datenschutz, Transparenz und Wohlbefinden. Verantwortlichkeit bedeutet, dass Unternehmen die Verantwortung übernehmen müssen, wenn ihre KI-Systeme durch diskriminierende Outcomes, Datenmissbrauch oder unsichere Praktiken Schaden anrichten.

Daher sind wir zu der Überzeugung gelangt, dass Open-Source-Ansätze und ein breiter Marktzugang die Hauptzutaten sind, die es für Selbstbestimmung und Verantwortlichkeit auf dem Gebiet der KI braucht. Wir haben beobachtet, dass KI zunehmend in einem geschlossenen Ökosystem gebaut wird, von denselben Unternehmen, die in den letzten 20 Jahren schon dem Internet und der Gesellschaft Schaden zugefügt haben. Viele der spannendsten Innovationen in der KI stammen aus Open-Source und Open Science, aber Forschende wenden sich zunehmend von einer offenen Veröffentlichung ab, da ihre Geldgeber den Verkauf von Zugriffsrechten für ihre Cloud-Dienste priorisieren. Dieselben Unternehmen verunglimpfen Open-Source-Ansätze in der KI und ziehen stattdessen ihre eigenen urheberrechtlich geschützten Modelle vor. Neue Akteure haben mit finanzieller Unterstützung der etablierten Big-Tech-Unternehmen den Markt betreten und setzen sich für Beschränkungen des Zugangs zu den leistungsfähigsten KI-Systemen und deren Entwicklung ein. Dabei berufen sie sich auf potenzielle Risiken als Teil ihrer Kritik an Open-Source-KI. Allerdings können auch geschlossene Modelle von böswilligen Akteuren missbraucht und von unfähigen Entwickler*innen eingesetzt werden. Offenheit ist also ein wichtiges Element, was Sicherheit, Schutz und Verantwortlichkeit angeht. Wir dürfen nicht hinnehmen, dass ein Blackbox-Ansatz in Händen einiger weniger Unternehmen der einzige und vernünftige Weg nach vorn sein soll.

Während Open-Source allein nicht alle Probleme der KI lösen kann, kann dieser Ansatz jedoch, sofern er verantwortlich umgesetzt wird, einen Nährboden für Innovation, Transparenz und die Schaffung einer Community darstellen. Gepaart mit konkurrierenden Märkten kann dieser Ansatz dabei helfen, Fortschritte in der KI allen zugänglich zu machen. So kann Open-Source zur kollektiven Wissensdatenbank beitragen, damit vielfältige Sichtweisen die Technologie formen und lenken können. Deshalb finanzieren, entwickeln und arbeiten wir mit Partnern zusammen, die daran arbeiten, Open-Source-KI vertrauenswürdig, kommerziell erfolgreich und für alle Menschen nützlich zu machen. Unsere Geschichte ist tief darin verankert, Open-Source zum Vorteil der Gesellschaft zu nutzen, und genau das wollen wir für KI auch erreichen.

Wie dieser Bericht zeigen wird, machen sowohl Mozilla als auch das breitere Ökosystem bedeutende Fortschritte in Richtung vertrauenswürdige KI, aber es bleibt viel zu tun. Wir wissen, dass wir allein die Gezeiten nicht ändern können. Deshalb geht es in diesem Bericht – und unserer gesamten Arbeit – darum, eine weltweite Community aufzubauen, die sich für vertrauenswürdige KI einsetzt. So schaffen wir eine bessere Zukunft.

Wir sind zu der Überzeugung gelangt, dass Open-Source-Ansätze und ein breiter Marktzugang die Hauptzutaten sind, die es für Selbstbestimmung und Verantwortlichkeit auf dem Gebiet der KI braucht.

KI-Entwicklungsstandards ändern

In unserem Paper von 2020 haben wir zu einem Wandel der Normen und Richtlinien in der Tech-Branche aufgerufen, die sich auf die Entwicklung von KI beziehen. Dabei hoben wir den Bedarf an mehr Diversität unter Stakeholdern hervor, die am Design von KI beteiligt sind und betonten, dass dies eine wichtige Bedingung für Vertrauenswürdigkeit darstellt. Heute spiegelt sich die mangelnde Diversität sowohl in den Datensätzen wider, mit denen LLMs trainiert werden, als auch darin, wer die Normen für die KI-Entwicklung festlegen darf.

KI-Modelle werden auf Unmengen von Daten aus dem Internet trainiert. Da das Internet jedoch nicht universell zugänglich ist, sind die von uns verwendeten Daten naturgemäß unvollständig. Infolgedessen sind die LLM-Ergebnisse durch die Sprachen und Inhalte begrenzt, die online am weitesten verbreitet sind, einschließlich Hassreden und anderer schädlicher Beiträge aus den dunklen Ecken des Internets.

Außerdem wird KI-Produkten, die nur von einer kleinen Gruppe Menschen in Silicon Valley entwickelt werden, die auch ihre Vertrauens- und Sicherheitspraktiken festlegen und damit die Zukunft der Branche beeinflussen, die Nuance anderer kultureller Sichtweisen und gelebten Erfahrungen fehlen. Das hat echte Konsequenzen für die Menschen und Communitys, die bisher keinen Zugriff auf Technologien hatten. Diese werden die Auswirkungen in besonderem Maße spüren, wenn sich die KI ausbreitet.

Positiver Fortschritt

Zwar ist die Mehrheit der Tech-Branche immer noch überwältigend weiß und männlich, jedoch haben sich in den letzten drei Jahren Frauen und Menschen aus unterrepräsentierten Communitys dafür eingesetzt, die Flugbahn der KI-Entwicklung zu beeinflussen.

Ein Beispiel dafür ist die Arbeit von Dr. Timnit Gebru, die 2020 aus ihrer Position als Co-Lead von Googles Ethical AI Team entlassen wurde, weil sie ihre Bedenken über Voreingenommenheit einer frühen LLM-Version äußerte. Seitdem setzt sie sich für Diversität in der Tech-Branche ein und spricht öffentlich über die zentralisierte Marktmacht großer Unternehmen, die KI-Systeme bauen, die die ganze Welt beeinflussen. Ein Jahr nach Ihrer Entlassung gründete sie das Distributed Artificial Intelligence Research Institute (DAIR), „ein Ort für unabhängige, in der Community verwurzelte KI-Forschung, die frei ist vom allgegenwärtigen Einfluss von Big Tech.“ Seit seiner Gründung konzentriert sich DAIR darauf, marginalisierten Menschen in der Forschung eine Stimme zu verleihen und über die mit KI-Technologie verbundenen Schäden zu informieren. Die Organisation konzentriert sich auch darauf, eine Community aufzubauen, um die Entwicklung von Technologien für eine bessere Zukunft zu beschleunigen.

Wir erkennen zudem die Entwicklung der ACM Conference on Fairness, Accountability, and Transparency (ACM FAccT) an, die sich bewusst um eine vermehrte Teilnahme unterrepräsentierter Gruppen an der Konferenz bemüht. So wird das Spektrum der Stimmen erweitert, die an Diskussionen rund um die Zukunft der Branche teilnehmen.

Wir von Mozilla unterstützen unsere Trustworthy AI Fellows finanziell, die eine breite Palette an Problemen angehen, von rassistischen algorithmischen Systemen in Dating-Apps bis zu den Auswirkungen von KI-Technologien auf ländliche Gemeinschaften. Mehrere unserer Fellows haben seitdem auf globaler Ebene Anerkennung für ihre Arbeit erhalten, unter ihnen Inioluwa Deborah Raji und Abeba Birhane, die für ihre Arbeit an algorithmischen Open-Source-Auditing-Tools auf der TIME 100 AI-Liste 2023 genannt wurden. Abeba Birhanes Arbeit stellte die Annahme infrage, dass immer größere KI-Modelle das Problem toxischer oder voreingenommener Outputs lösen werden. Sie stellte stattdessen fest, dass „größere Datensätze zu mehr hasserfüllten Inhalten führen“. Mozilla Ventures investierte außerdem in Lelapa AI, ein Unternehmen, dass die immensen potenziellen Vorteile von KI-Technologie freisetzen möchte, die afrikanische Sprachen bisher ausgeschlossen hat.

Darüber hinaus gibt es eine große Nachfrage nach Talenten mit Expertise auf dem Gebiet der vertrauenswürdigen KI und nur einen sehr begrenzten Personenkreis, der diese Expertise aufweist. Sowohl die Tech-Branche als auch die Wissenschaft werden erheblich in Ausbildungen zum Thema KI investieren müssen, um diese Nachfrage stillen zu können. Um eine Generation von Entwickler*innen mit Fachwissen auf dem Gebiet der vertrauenswürdigen KI auszubilden, arbeiten wir mit Hochschulen für die Responsible Computing Challenge (RCC) zusammen. Diese konzentriert sich auf Lehrpläne, die Student*innen darin befähigen, über den sozialen und politischen Kontext des Computing nachzudenken. RCC hat 33 Institutionen auf drei Kontinenten 2,7 Mio. USD zur Verfügung gestellt.

Was zu tun ist

Es gibt noch keine branchenweit akzeptierten festgelegten Richtlinien dafür, wie KI verantwortlich entwickelt werden sollte. So hat Stanfords Center for Research on Foundation Models einen Foundation Model Transparency Index (FMII) veröffentlicht, der darauf abzielt, den Grad der Transparenz für zehn der Top-Entwickler*innen für KI Foundation Models zu beurteilen. Indizes wie dieser sind vielversprechend – und weisen gleichzeitig ihre eigenen Grenzen auf. Die Stanford-Analysen kamen schnell auf den Prüfstand, als Kritiker*innen die Defizite und Voreingenommenheit des FMIIs gegenüber geschlossenen Modellen anprangerten.

Wir beobachten außerdem einen besorgniserregenden Rückschritt in Bezug auf die Anstrengungen, große Tech-Unternehmen zu diversifizieren. Nach der Tötung von George Floyd in den USA und den folgenden Protesten gegen Polizeigewalt und Rassismus im Jahr 2020 verpflichteten sich Führungskräfte in ganz Corporate America dazu, mehr People of Color einzustellen, zu befördern und an ihre Unternehmen zu binden. Diese Anstrengungen haben gerade begonnen, Früchte zu tragen. Allerdings könnte dieser positive Trend jetzt schon bedroht sein, da verschiedene spezielle Interessengruppen sich einmischen und Führungskräfte wie Elon Musk sich gegen DEI aussprechen. 2023 zählten Google und Meta zu den Unternehmen, die ihre Ausgaben für DEI einschränkten.

Zudem müssen wir die fehlende regionale Diversität in der KI-Entwicklung in Betracht ziehen. Da der Fokus auf westlich zentrierten Anstrengungen liegt, wird die Arbeit von Entwickler*innen in Regionen mit weniger entwickelten Technologiesektoren verschleiert, wie etwa Südamerika und dem afrikanischen Kontinent. Dazu kommt die Ausbeutung von Arbeiter*innen, die Daten in Ländern wie Indien und den Philippinen kennzeichnen. KI wird weltweit unser aller Leben beeinflussen. Deshalb ist es erforderlich, ein breiteres Spektrum an Stimmen in ihr Design und ihre Bereitstellung zu involvieren. Die Vereinten Nationen schätzen, dass fast 2,6 Milliarden Menschen keinen Zugriff auf das Internet haben. Die Daten, die fürs Training von KI-Modellen genutzt werden, repräsentieren also ein Drittel der Weltbevölkerung nicht. Ohne mehr Input von einer Vielfalt an Menschen könnten entstehende Richtlinien und Best Practices möglicherweise nicht mit den kulturellen und wirtschaftlichen Bedürfnissen anderer Regionen übereinstimmen.

Bei Mozilla arbeiten wir weiterhin engagiert daran, diverse, gleichberechtigte und inklusive interne Teams aufzubauen. Wir wissen jedoch auch, dass es einer breiter angelegten Transformation bedarf: Eine diverse Gruppe an Stakeholdern zu begeistern, die Zukunft der KI zu gestalten, ist ein zentraler Bestandteil von Mozillas programmatischer Strategie, die beeinflusst, was wir finanzieren und wo wir arbeiten. Vor allem die Africa Innovation Mradi hat seit 2020 KI-Entwickler*innen auf dem Kontinent zusammengebracht und finanziert, um Innovationsmodelle zu fördern, die sich an den besonderen Bedürfnissen der User*innen in Afrika orientieren.

KI wird weltweit unser aller Leben beeinflussen. Deshalb ist es erforderlich, ein breiteres Spektrum an Stimmen in ihr Design und ihre Bereitstellung zu involvieren.

Neue Technologien und Produkte entwickeln

2020 betonten wir die Notwendigkeit, mehr Basistechnologien zu entwickeln, die Entwickler*innen als Grundbaustein für vertrauenswürdige KI dienen können. Je mehr sich die KI-Landschaft verschließt, desto wichtiger wird es, dass diese Grundbausteine mit den Prinzipien der Offenheit, des Wettbewerbs und der Verantwortlichkeit einhergehen.

Open-Source-Ansätze ergeben nicht automatisch vertrauenswürdige KI und können im Interesse von Unternehmen erfasst werden, die sie sich zu eigen machen. Allerdings ist es ein grundlegender erster Schritt hin zu mehr Verantwortlichkeit und Selbstbestimmung, KI-Tools zum Zwecke der öffentlichen Einsichtnahme, Modifizierung und Neuverwendung zu öffnen. Offenheit kann auch eine bedeutende Rolle dabei spielen, einen faireren KI-Markt zu fördern, da ein gesundes Open-Source-Ökosystem es kleineren Akteuren erleichtert, sich gegen etablierte Größen auf dem Markt zu behaupten.

Wir haben bereits beobachtet, wie Big-Tech-Unternehmen Milliarden von US-Dollar angehäuft haben, indem sie so viele Userdaten wie möglich gesammelt haben. Und diese Strategie wollen sie jetzt auch auf ihr KI-Angebot anwenden. Deshalb ist die Entstehung alternativer Unternehmensmodelle für Verbrauchertechnologien eine Grundvoraussetzung für eine vertrauenswürdigere KI. Um den Wettbewerb zu fördern, müssen Investoren außerdem die Entrepreneur*innen unterstützen, die neue KI-Tools und Geschäftsmodelle vorantreiben, in deren Mittelpunkt die Selbstbestimmung der User*innen und der Schutz ihrer Daten steht.

Schlussendlich müssen wir mehr Tools entwickeln und anwenden, mit deren Hilfe KI-Systeme verantwortlicher werden. So können beispielsweise Technologien zur Verbesserung des Datenschutzes wie föderales Lernen potenziell Risiken über die gesamte KI-Lebensdauer hinweg reduzieren und dazu beitragen, KI verantwortlicher zu gestalten. Andere Tools zur Leistungs- und Risikobewertung können Entwickler*innen dabei helfen, KI-Systeme vertrauenswürdiger zu machen.

Positiver Fortschritt

Zwar standen urheberrechtlich geschützte Modelle in der aktuellen Phase des Rennens um die KI auf der Pole-Position, aber es tauchten eine Reihe an Open-Source LLMs und Ressourcen auf, die sich an die Spitze kämpfen wollen.

Über das gesamte KI-Ökosystem hinweg wurde Metas Familie an LLMs die meiste Aufmerksamkeit in Diskussionen über Open-Source-KI zuteil. Es gibt jedoch hunderte anderer Modelle – wie GPT-NeoX-20B von EleutherAI, BLOOM von Hugging Face, Falcon-180B vom Technology Innovation Institute und Mixtral 8x7B von Mistral – die die Werte von Open-Source besser widerspiegeln. Hugging Face, eine Plattform und Community, deren Ziel es ist, „gutes maschinelles Lernen zu demokratisieren“, fördert diese Modelle durch sein Open LLM Leaderboard. Das Unternehmen trackt, evaluiert und rankt von der Community eingereichte offene KI-Modelle und stellt kleinen Teams und individuellen Entwickler*innen so eine geprüfte Basisressource bereit, um transparentere Produkte zu bauen.

Auch wir bei Mozilla haben zu diesem Ökosystem beigetragen. Im März 2023 investierten wir 30 Millionen US-Dollar, um Mozilla.ai ins Leben zu rufen, ein Start-up und eine Community mit dem Ziel, das rasant wachsende Feld der Open-Source KI-Modelle vertrauenswürdiger und nützlicher zu gestalten. Das Unternehmen befindet sich in den Anfängen der Entwicklung einer gemeinschaftlicheren Vision für die Zusammenarbeit zwischen Mensch und KI. Dazu gehört das Bauen kleiner, spezialisierter Sprachmodelle (SSLMs), die für das Fine-Tuning von Modellen nach dem Wissen von Fachleuten genutzt werden können. Gleichzeitig wird auch sichergestellt, dass diese Fachleute die Modelle nach ihren eigenen speziellen Bedürfnissen anpassen können. Wir sind davon überzeugt, dass Tools wie diese die KI-Systeme zugänglicher, vertrauenswürdiger und nützlicher machen können.

Noch dazu entwickeln und investieren wir aktiv in Open-Source-Bausteine, die für mehr Selbstbestimmung sorgen und KI „lokaler“ machen. Als Teil eines übergreifenden Ziels, KI durch Open-Source für alle zugänglicher zu machen, hat Mozilla llamafile veröffentlicht. Dabei handelt es sich um ein vielseitiges Open-Source LLM in einer einzigen Datei, das es drastisch erleichtert, LLMs auf einem lokalen Gerät wie einem Laptop auszuführen und zu verbreiten. Wir haben unsere Arbeit an Projekten wie Common Voice ausgeweitet – der weltweit größten multilingualen Open-Source-Stimmdatenbank, die durch Crowdsourcing entstanden ist. Sie umfasst jetzt Datensätze in über 100 Sprachen, darunter viele lokale Sprachen, die von keinem der großen Tech-Player unterstützt werden. Common Voice ist die Flaggschiffinitiative der Mozilla Foundation, um Voreingenommenheit in der KI durch die Demokratisierung von Sprachtechnologie entgegenzuwirken. Das Projekt wurde von der durch die Vereinten Nationen gestützten Initiative Digital Public Goods Alliance als ein digitales öffentliches Gut ausgezeichnet.

Mozilla hat außerdem an einer Reihe von Dokumentationsressourcen gearbeitet, die Entwickler*innen helfen sollen, KI verantwortungsvoll zu gestalten. Dazu gehört unser AI Guide, eine Community-basierte Sammlung von Open-Source-Ressourcen zu Themen wie KI-Grundlagen und der Auswahl von Modellen für maschinelles Lernen. Zu der Sammlung gehören auch mehrere nennenswerte Projekte aus der KI-Community zur Einsicht und als Inspiration. Unser Projekt Open Source Audit Tooling (OAT) beispielsweise soll Entwickler*innen, Forschenden und Gesetzgebern helfen, die KI Auditing-Landschaft zu verstehen.

Wir haben auch selbst bedeutend in die Entwicklung des vertrauenswürdigen KI-Ökosystems investiert. Mozilla Ventures hat bereits 4 Mio. US-Dollar in Frühphasen-Start-ups mit einem Fokus auf vertrauenswürdige KI investiert, darunter Themis AI, Fiddler AI, Armilla AI, Truepic und Flower. Das Team von Themis hat ein Software-Rahmenprogramm gebaut, das Modellen für maschinelles Lernen zu erkennen beibringen soll, wann sie unzuverlässige Outputs liefern. Fiddler AI baut Vertrauen in KI ein, indem es Tools für Beobachtbarkeit und Erklärbarkeit anbietet. Truepic entwickelt Technologien zur Erkennung der Authentizität von Inhalten, die eine Verbreitung von Falschinformationen über KI-bearbeitete Fotos verhindern soll. 2023 hat die Mozilla Foundation 1,3 Mio. US-Dollar an Mitteln zur Förderung von Technologie zugesagt. So sollen Projekte für vertrauenswürdige KI durch den Mozilla Technology Fund, das Data Futures Lab und ähnliche Förderinitiativen unterstützt werden.

Was zu tun ist

Open-Source-KI-Modelle nehmen Fahrt auf, aber bis sie einfacher zu nutzen, effektiver und vertrauenswürdiger sind, werden sie nicht im Mainstream ankommen. Um das zu erreichen, muss die Open-Source-Community sich darauf konzentrieren, diese wichtigen KI-Bausteine so hilfreich und erfolgreich wie möglich zu machen, damit sie auf dem Markt an Relevanz gewinnen. Wenn die Hürden zur Entwicklung besserer KI-Tools nicht mehr so hoch sind, wird es bessere Open-Source-Ansätze geben und das Ökosystem vertrauenswürdiger KI wird wachsen.

Eine der größten Hürden für Open-Source-KI-Entwicklung ist die immens hohe Rechenleistung, die für die Entwicklung und das Training von LLMs erforderlich ist. Das Chip-Unternehmen NVIDIA verzeichnet eine Rekordnachfrage nach seinen Grafikprozessoren (GPUs), die bis zu 30.000 Dollar pro Stück kosten können. Um ein Modell wie GPT-4 zu trainieren, braucht es tausende dieser Chips. Die damit verbundenen Kosten machen es kleinen Teams und individuellen Entwickler*innen unmöglich, ihre eigenen KI-Infrastrukturen auszubauen. Wenn wohlhabende Unternehmen wie Microsoft und Google und von ihnen unterstützte Unternehmen die einzigen sind, die sich ausreichend GPUs leisten können, um ihre Modelle zu trainieren, werden vertrauenswürdige KI-Systeme nie in Gang kommen. Regierungen können helfen, indem sie KI-Rechenkapazitäten für öffentliche Forschungsprojekte und lokale Start-ups finanzieren, wie sie es in den USA, Großbritannien und in der EU bereits getan haben. Entwickler*innen arbeiten auch an Lösungen, die die Entwicklung von KI-Systemen mithilfe von AMD-Chips erleichtern können. Eine solche Lösung ist unser neuestes Update für llamafile.

Eine weitere Herausforderung bei der Entwicklung neuer Technologien und Produkte stellt die fehlende Klarheit darüber dar, was „Offenheit“ im Kontext von KI eigentlich bedeutet. Die Open-Source-Community muss sich über eine konkrete Definition von Open-Source-KI erst noch einig werden, wie auch über die richtigen Leitlinien, die für eine Veröffentlichung von KI-Modellen nötig sind. Das ist wichtig, weil Offenheit allein weder die Erschaffung vertrauenswürdiger Modelle garantiert noch ihre Risiken mindert. Im September 2023 veröffentlichte das französische Start-up Mistral AI sein eigenes Open-Source LLM namens Mistral 7B, das angeblich leistungsstärker als Metas LLaMA-2 sein sollte. Allerdings läuteten Forschende schnell die Alarmglocken in Bezug auf die fehlenden Content-Modertation-Filter. User*innen konnten das System deshalb nach Anleitungen zum Bau von Bomben und zu Selbstverletzung fragen. Andere Modelle sind mit eingebauten Sicherheitsmaßnahmen ausgestattet, um Chatbots daran zu hindern, ähnliche Fragen zu beantworten, aber Mistrals Gründer gab an, dass Sicherheit in der Verantwortung der Entwickler*innen von KI-Anwendungen liege, nicht in der Verantwortung der Unternehmen, die die LLMs bauen.

Um diese Herausforderungen anzugehen, arbeiten die Columbia University und Mozilla 2024 an einer Reihe von Workshops zusammen, um die verschiedenen Dimensionen der Offenheit in der KI zu bestimmen. Das Projekt wird Einzelpersonen und Organisationen einbeziehen, die sich seit Langem für Open-Source engagieren, um eine breite Koalition zu bilden, die sich gegen Big Tech behaupten kann und die Hersteller dazu ermutigt, ihre KI-Entwicklung verantwortungsvoll zu öffnen. Mit diesen und anderen Bemühungen werden wir weiterhin eine Vorreiterrolle bei der Definition und Entwicklung von Open-Source-Tools und -Systemen spielen, die sicher, zugänglich und transparent sind.

Open-Source-KI-Modelle nehmen Fahrt auf, aber bis sie einfacher zu nutzen, effektiver und vertrauenswürdiger sind, werden sie nicht im Mainstream ankommen.

Das Bewusstsein der Verbraucher*innen schärfen

In unserem Paper von 2020 beschrieben wir, dass es von großer Bedeutung wäre, eine öffentliche Nachfrage nach vertrauenswürdigeren KI-Produkten zu generieren. Das umfasst sowohl die normalen Verbraucher*innen als auch die Organisationen der Zivilgesellschaft, die die Verbraucher*innen aufklären und sich für ihre Interessen einsetzen. Eine gut informierte Öffentlichkeit ist ein wichtiger Teil dieses KI-Verantwortlichkeits-Puzzles. Denn wenn eine kritische Masse an User*innen sich gegen fragwürdige Praktiken wehrt, müssen große Tech-Unternehmen etwas ändern, um ihre Bedenken zu beseitigen. Ihre Gewinne hängen schließlich davon ab.

Positiver Fortschritt

ChatGPTs kometenhafter Aufstieg und die umfassende Berichterstattung in den Medien haben KI zu einem Mainstream-Thema gemacht. Unternehmen aus allen Branchen experimentieren damit, was bedeutet, dass Millionen Menschen die Technik am Arbeitsplatz anwenden. Im Ergebnis werden jetzt die Risiken ausgeleuchtet, vor denen Forschende schon seit Jahren warnen. Aktuelle Umfragen haben ergeben, dass mehr als drei Viertel aller Verbraucher*innen sich über die Falschinformationen Sorgen machen, die aus KI resultieren. Weniger als 40 % glauben, dass KI geschützt und sicher ist. Jahrelanger Einsatz und die Entwicklung von Richtlinien rund um Datenschutz, Falschinformationen und die Verantwortlichkeit von Tech-Plattformen haben zu einer Öffentlichkeit geführt, die informierter und skeptischer ist und eine eigene Meinung hat. Das ist für die neue KI-Ära von größter Bedeutung.

Die öffentliche Meinung zu KI wird durch bekannte Kontexte wie Arbeits-, Menschen- und Verbraucherrechte geformt. Die Führungskräfte der Bewegung haben ihr Verständnis dafür, wie sich KI auf ihre Wählerschaft auswirken wird, rasch ausgeweitet und sich an die Ausgestaltung von Einstellungen und Erwartungen gemacht. So ging es 2023 in den Hollywood-Arbeiterstreiks auch zu einem großen Teil um Bedenken in Bezug auf KI. Nach mehreren Monaten der Arbeitsverweigerung, die die Film- und Fernsehbranche zum Stillstand brachten, konnten Autor*innen und Schauspieler*innen in Gewerkschaftsverträgen KI-bezogene Zugeständnisse bewirken, die hunderttausende Angestellte betreffen. Zwar verbieten die Vereinbarungen generative KI nicht vollständig, aber sie zeigen Leitlinien darüber auf, wie Studios sie einsetzen dürfen. Das mindert die Sorgen über Streichungen für die Autor*innen und bei KI-generierten Darstellungen. Dieser frühe Sieg ist ein gutes Zeichen für zukünftige gewerkschaftliche Organisierungsbemühungen in anderen Branchen.

Die Arbeit anderer Organisationen hat sich auf die Aufklärung der Verbraucher*innen über die Gefahren der KI konzentriert, und regt sie dazu an, wenn möglich immer vertrauenswürdige Technologien zu wählen. Consumer Reports veröffentlichte im Rahmen seiner Bad-Input-Kampagne drei Kurzfilme, in denen es um die algorithmische Voreingenommenheit bei medizinischen Geräten, Hypothekendarlehen und Gesichtserkennung geht. Dokumentarfilme wie Coded Bias (2021) brachten den Diskurs in der Mehrheitsgesellschaft über Themen wie Falschinformationen und rassistische Voreingenommenheit von Gesichtserkennungsalgorithmen ins Rollen. Dr. Joy Buolamwinis Buch von 2023, Unmasking AI, geht genauer auf ihre in Coded Bias beschriebenen Erfahrungen ein und behandelt die Gründung der Algorithmic Justice League. Auch jene mit extremeren Ansichten in Bezug auf KI haben eine große Rolle dabei gespielt, das Bewusstsein der Verbraucher*innen zu schärfen; 2023 hielt das Center for Humane Technology eine viel gesehene Rede über die bestehenden Risiken von KI-Technologien und klärte genauer darüber auf, wie das Rennen um gewinnbringende KI zu Sicherheitsversagen führen kann.

Mozillas öffentliche Kampagnen und Lobbyarbeit zu Themen rund um KI und Verbrauchertechnologien haben seit 2021 mehr als 500.000 Menschen mobilisiert und so bedeutende Veränderungen bei Produkten und Branchenstandards bewirkt. Diese Kampagnen haben das Bewusstsein der Verbraucher*innen für Fragen rund um KI und die Technologie, die sie im Alltag nutzen, geschärft – von Suchmaschinen und Social-Media-Plattformen bis hin zu Videotürklingeln und Autos. Im Juli 2023 führte Slack als Reaktion auf eine von uns geführte zivilgesellschaftliche Kampagne eine Blocking-Funktion ein. Im September 2023 gab YouTube nach einer mehrjährigen Kampagne von Mozilla bekannt, dass es Forschenden aus der Zivilgesellschaft Zugriff auf entscheidende Daten gewähren würde. Im selben Monat forderte die Alliance for Automotive Innovation ein Bundesdatenschutzgesetz in den USA, nachdem der öffentliche Druck durch Mozillas fortlaufende Berichtsserie *Datenschutz nicht inbegriffen entstanden war, die sich zuletzt auf Datenschutzprobleme bei vernetzten Autos konzentrierte. 2023 gingen wir außerdem mit einer neuen Saison unseres Podcasts IRL an den Start, in dem es um KI-Entwickler*innen geht, die verantwortliche Produkte auf den Markt bringen.

Neben diesem Einsatz für unsere Sache sehen wir außerdem, wie immer mehr neue Verbraucherprodukte auf den Markt kommen, die nach vertrauenswürdigen KI-Prinzipien konzipiert wurden. Etablierte Unternehmen wie Intel und Adobe, Start-ups wie Reality Defender und Forschungsorganisationen wie das MIT Media Lab erarbeiten Wege, um Deepfakes zu erkennen, die Echtheit von Bildern zu verifizieren und Fehl- und Falschinformationen zu bekämpfen. Twilio hat eine AI Nutrition Facts-Initiative ins Leben gerufen, die es verbraucherfreundlich ermöglicht, nachzuvollziehen, wie KI-Produkte die Daten ihrer User*innen verwendet. Die DeepMind-Gruppe von Google gab im August 2023 einen Beta-Launch für SynthID heraus, ein Tool zur Erstellung von Wasserzeichen und Identifizierung von KI-generierten Inhalten.

Im Mai 2023 kaufte Mozilla Fakespot, ein Unternehmen, das Verbraucher*innen schützt, indem es KI dazu nutzt, gefälschte Produktbewertungen und Drittanbieter in Echtzeit zu erkennen. Unsere Technologie analysiert Milliarden von Produktbewertungen, um auffällige Aktivitäten schnell zu identifizieren und Verbraucher*innen dann bessere Alternativen vorzuschlagen. Ende 2023 brachten wir Fakespot Chat raus, das die Kraft der generativen KI nutzt, um Produkt bezogene Fragen von Verbraucher*innen schnell zu beantworten. Das spart ihnen Zeit und Geld.

Was zu tun ist

Obwohl wir ein positives Momentum beobachten konnten, das Arbeitnehmer*innen bei der Einführung neuer KI-Tools und -Systeme mehr Mitsprachrecht einräumt, denken die meisten normalen User*innen von generativer KI nicht kritisch darüber nach, ob diese Systeme vertrauenswürdig sind oder nicht. Da es aufgrund der geschlossenen Systeme wenige bekannte Alternativen zu den beliebtesten Tools gibt, fühlen sich viele Verbraucher*innen gezwungen, sich für die Tools der Unternehmen zu entscheiden, deren Technologie bereits in ihren Alltag integriert ist.

Und wir können es den Verbraucher*innen nicht vorwerfen, dass sie sich für die praktischsten Tools entscheiden, die vertrauenswürdig erscheinen. Insbesondere, wenn die Auswahl begrenzt ist. Die Open-Source-Community muss weiterhin KI-Technologien entwickeln, damit die Menschen bessere Optionen haben. Zivilgesellschaftliche Organisationen müssen weiter wegen potenziell ungeprüfter KI die Alarmglocken läuten, die im wahren Leben Schaden anrichtet. Außerdem müssen sie bessere Alternativen finanzieren. Und Regulierungsbehörden müssen einen wettbewerbsfähigen Markt mit starkem Verbraucherschutz bewahren, um so dem KI-Ökosystem insgesamt die nötigen Richtlinien zu geben, damit es aufblühen kann.

Bei Mozilla arbeiten wir daran, in den kommenden Jahren mehr vertrauenswürdige KI-Technologien in unsere eigenen Verbraucherprodukte einzubauen. Zusätzlich weiten wir unsere durch Crowdsourcing angetriebene investigative Recherche in TikToks Empfehlungsalgorithmus aus. Zudem müssen wir weiterhin daran arbeiten, das Bewusstsein der Verbraucher*innen in Bezug auf Datenschutzrisiken der KI noch mehr zu schärfen und die Nachfrage nach Ansätzen für größeren Datenschutz in KI-Produkten ankurbeln.

Eine gut informierte Öffentlichkeit ist ein wichtiger Teil dieses KI-Verantwortlichkeits-Puzzles.

KI-Richtlinien und -Anreize stärken

Der letzte Hebel, den wir in unserem ursprünglichen Paper nennen, konzentrierte sich auf die Notwendigkeit, dass Regierungen auf der ganzen Welt eine Vision, Kompetenzen und Kapazitäten schaffen, um KI effektiv zu regulieren. Zwar spielen Branchenstandards und Verbrauchernachfrage eine große Rolle beim Vorantreiben vertrauenswürdiger KI, aber ohne Richtlinien und Anreize für verantwortungsvollere Praktiken und rechtliche Mechanismen, die Unternehmen zur Verantwortung ziehen, werden wir nicht weit kommen.

Positiver Fortschritt

Andere Organisationen und Forschende fordern schon seit Jahren Richtlinien für KI, aber der Boom der generativen KI hat es unmöglich gemacht, diese Rufe zu ignorieren. Das weit verbreitete Bewusstsein der Verbraucher*innen für KI hat den Druck auf die Gesetzgeber erhöht, im Takt mit den Veränderungen zu handeln. Das Momentum hinter den globalen Anstrengungen, effektive und durchdachte KI-Richtlinien zu entwickeln und umzusetzen, war noch nie so groß wie heute.

Die EU bewegt sich dabei schneller als einige andere Regionen. Gesetzgeber haben sich im Prinzip auf das europäische KI-Gesetz geeinigt, das erste seiner Art, das ursprünglich im April 2021 vorgeschlagen wurde. Das Rahmenwerk verfolgt einen überwiegend risikobasierten Ansatz, KI zu regulieren. Dabei gelten besondere Regeln für die mächtigsten KI-Modelle zur allgemeinen Anwendung. Obwohl dieser Ansatz einige Einschränkungen aufweist, wird das europäische KI-Gesetz das umfassendste KI-Gesetz der Welt und wird erheblichen Einfluss auf die Bemühungen um eine globale KI-Governance nehmen. Das Gesetz wird andere neuere europäische Technologiegesetze ergänzen, darunter das Digital Services Act Paket (DSA) und das Gesetz über digitale Märkte (DMA).

Von Anfang an spielten unsere Teams für Richtlinien und Interessenvertretung eine Schlüsselrolle bei der Entwicklung des europäischen KI-Gesetzes. Gemeinsam mit unseren Verbündeten drängten wir auf mehr Transparenz, bindende Regeln für Foundation Models und gezielte Sorgfaltspflicht entlang der KI-Wertschöpfungskette. Allerdings ist die Arbeit noch nicht getan. Wir werden uns weiterhin dafür einsetzen, dass es ein Erfolg wird, bis das Gesetz vollständig umgesetzt ist.

In den USA, wo viele der größten Namen der KI-Branche ihren Firmensitz haben, nimmt die Diskussion über Richtlinien an Fahrt auf. Die Regierung Biden will weg von freiwilligen KI-Sicherheitsverpflichtungen und hin zu konkreteren Richtlinien. Im Oktober 2023 veröffentlichte Präsident Biden seine Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence, mit Direktiven zur Verbesserung von Sicherheit, Datenschutz, Gerechtigkeit und Wettbewerb – ein willkommener Schritt, um sicherzustellen, dass die KI-Entwicklung durch ausreichend regulatorische Leitlinien eingerahmt wird. Im November 2023 gab Vizepräsident Harris einen Entwurf für politische Leitlinien aus, um die Risiken beim Einsatz von KI durch die US-Regierung zu mindern und die Kaufkraft der Regierung für die Gestaltung besserer KI-Normen in der Branche einzusetzen.

Obwohl es den USA nicht gelungen ist, ein umfassendes Datenschutzgesetz auf den Weg zu bringen, sind die Gesetzgeber bemüht darum, die KI-Gesetzgebung richtig zu gestalten. Zusätzlich zu den freiwilligen Verpflichtungen, die KI-Unternehmen im Sommer 2023 im Weißen Haus auf sich genommen haben, hielt der Mehrheitsführer im Senat, Chuck Schumer, eine Reihe von geschlossenen KI-Insight-Foren für Gesetzgeber ab, an denen CEOs aus der Technologiebranche, Forschende und Bürgerrechtsvertreter*innen teilnahmen. Es ist von entscheidender Bedeutung, dass in diesen Foren eine breite Vielfalt von Stimmen gehört wird, und es ist ermutigend, dass die politische Community Rat von KI-Expert*innen einholt, wie etwa Mozilla und seinen Fellows, um bessere Gesetze zu entwickeln.

In der schriftlichen Erklärung von Mozilla für das Forum hoben wir den Bedarf für KI-Richtlinien hervor, in deren Mittelpunkt Datenschutz, Offenheit und Transparenz als Rückgrat verantwortlicher Regulierung steht. Wir hielten Gesetzgeber dazu an, über einen binären Charakter von offener oder geschlossener KI hinauszudenken. Ein ausgewogenes Umfeld, in dem beide Ökosysteme gedeihen können, wird Innovation fördern, für Wettbewerbsfähigkeit sorgen, die Rechte und die Sicherheit der Menschen schützen und gleichzeitig potenzielle Risiken mindern. Ebenso betonten wir die Notwendigkeit, dass sich die Gesetzgeber standardmäßig für den Datenschutz bei KI-Technologien einsetzen, wobei umfassende Datenschutzgesetze wie der vorgeschlagene American Data Privacy and Protection Act im Vordergrund stehen sollten.

Unsere Führungskräfte bieten Ihre Expertise auch in Großbritannien an. Mozilla.ai sagte im Zuge der Untersuchung von LLMs des britischen House of Lords vor dem Communications and Digital Committee aus. In unseren Ausführungen betonten wir die Rolle, die offene Ansätze im Bereich der KI für die Innovation spielen können, das Marktversagen, das kleinere Akteure am Zugang zu Rechenressourcen wie GPUs hindert, und den Bedarf an mehr staatlichen Investitionen in die KI-Infrastruktur zur Förderung des Wettbewerbs. Außerdem erläuterten wir die Wichtigkeit der digitalen Aufklärung für Betriebe, Schulen und den öffentlichen Dienst darüber, was diese Modelle leisten und wie sie in verschiedenen Kontexten sicher eingesetzt werden können.

Was zu tun ist

Es braucht Richtlinien, um KI vertrauenswürdiger zu machen und die Risiken dieser Technologie zu minimieren. Gleichzeitig müssen Gesetzgeber sich über die Auswirkungen solcher Richtlinien auf Wettbewerb und Offenheit in der KI bewusst sein. Sämtliche regulierende Rahmenwerke muss sicherstellen, dass der KI-Markt für Wettbewerb und Innovationen von Unternehmen offen bleibt, die die Branchenriesen herausfordern. Um das zu erreichen, müssen sie Offenheit und Open-Source sichern.

Offenheit und Transparenz sind unumgänglich, wenn wir die Vorteile der KI der Mehrheit der Menschen zugänglich machen wollen, statt sie nur in solchen Fällen angewendet zu sehen, in denen Gewinne den Hauptfaktor darstellen. Den jüngsten globalen politischen Diskussion über Offenheit fehlt es an Zwischentönen – teilweise aufgrund des überwältigend großen Einflusses von Big-Tech, die diese Diskussionen zum eigenen Vorteil zu formen versuchen. Macher urheberrechtlich geschützter Modelle haben hypothetische katastrophale Bedrohungen als wichtigstes Problem angeführt, um das sich Gesetzgeber kümmern müssten. Dabei ließen sie bestehende KI-Bedrohungen wie Voreingenommenheit und Diskriminierung außer Acht. Im Oktober 2023 lehnten wir uns gemeinsam mit 1.800 Unterschreibenden in unserem Joint Statement on AI Safety and Openness gegen diese Dynamik auf:

Natürlich haben offen verfügbare Modelle ihre Risiken und Schwachstellen – KI-Modelle können von böswilligen Akteuren oder durch schlecht informierte Entwickler*innen missbraucht werden. Allerdings haben wir immer wieder beobachtet, dass dies auch für urheberrechtlich geschützte Technologien gilt – und dass Technologien sicherer werden, wenn wir eine Prüfung und öffentlichen Zugriff zulassen, nicht gefährlicher. Die Vorstellung, dass eine strenge und proprietäre Kontrolle grundlegender KI-Modelle der einzige Weg ist, um uns vor Schaden für die Gesellschaft zu bewahren, ist bestenfalls naiv und schlimmstenfalls gefährlich.

Es gibt staatlich geführte Prozesse, mit denen wir einige dieser größeren Fragen zu Open-Source-Governance und -Richtlinien bearbeiten können. Gemäß der Anordnung der Biden-Regierung prüft die National Telecommunications and Information Administration (NTIA) des US-Handelsministeriums sowohl die Risiken als auch die Vorteile offen verfügbarer LLM-Modelle und bittet die Öffentlichkeit um Kommentare, um mögliche Regulierungsansätze zu ermitteln. Mozilla hat vor, eine Antwort auf diesen Aufruf zu Kommentaren zu verfassen und den Ansatz der NTIA in Bezug auf diese Frage zu beeinflussen.

Im Zusammenhang mit Verbraucherschutz und starken Regeln zur Prävention wettbewerbsschädlicher Praktiken kann Offenheit zu mehr Innovationen und Wettbewerb führen, indem sie allgemeine Ressourcen für das Ökosystem insgesamt bereitstellt. Wettbewerb regt für Unternehmen und Verbraucher*innen Investitionen, neue Arbeitsplätze und bessere Auswahlmöglichkeiten an. Um die Vorteile des KI-Booms auch außerhalb von Big Tech auszuweiten, müssen Gesetzgeber die Durchsetzung und Stärkung bestehender Wettbewerbsregeln priorisieren, damit sie den Anforderungen von heute besser gerecht werden können.

Während Gesetzgeber sich über die Feinheiten der KI-Landschaft weiterbilden, halten sich böswillige Akteure bereit, um die Tools der generativen KI auszunutzen und damit Desinformation zu streuen und für politische Unruhen zu sorgen – etwas, das aktuell schon passiert. Gesetzgeber müssen sich angesichts der 2024 anstehenden mehr als 40 nationalen Wahlen schneller bewegen, um die Bedrohungen dieses Jahres anzugehen. Wir müssen die Chance nutzen, um uns mit dem Einfluss der KI auf das weltpolitische Geschehen auseinanderzusetzen und unsere Systeme für die nächsten Wahlen zu rüsten. Zu diesem Zweck hebt Mozilla die Arbeit von Forschenden auf der ganzen Welt hervor, die Ungerechtigkeiten bei der Art und Weise aufdecken, wie Plattformen globale Wahlen angehen. Wir beleuchten den „Copy-and-Paste“-Ansatz, den Plattformen bei globalen Wahlen verfolgen, insbesondere in Ländern der globalen Mehrheit, und zeigen die verheerenden Auswirkungen, die solche Entscheidungen auf das Informationsökosystem eines Landes haben können, insbesondere dort, wo die demokratischen Institutionen relativ schwach sind.

Sämtliche regulierende Rahmenwerke müssen sicherstellen, dass der KI-Markt für Wettbewerb und Innovationen von Unternehmen offen bleibt, die die Branchenriesen herausfordern.

Der Weg nach vorn für vertrauenswürdige KI

Die KI-Landschaft bewegt sich schneller denn je und das Ökosystem für vertrauenswürdige KI wächst mit. Um auf dem positiven Momentum aufzubauen, das wir in den vergangenen drei Jahre beobachten konnten, müssen wir in Bezug auf jeden unserer vier wichtigsten Hebel gezielt handeln: Branchennormen, neue Technologien und Produkte, Verbrauchernachfrage und Richtlinien und Anreize.

Nächste Schritte für Mozilla

Wir werden weiter daran arbeiten, das Vertrauen der User*innen in KI über das gesamte Mozilla Projekt hinweg zu verdienen. Dabei konzentrieren wir uns auf Offenheit als unser leitendes Prinzip. Indem wir das Potenzial von Open-Source-Ansätzen skalieren und uns für faire, offene Märkte einsetzen, können wir unsere Vision einer Landschaft mit vertrauenswürdiger KI mit Selbstbestimmung und Verantwortlichkeit im Mittelpunkt realisieren.

Das steht als Nächstes auf unserer To-do-Liste:

  • Das öffentliche Narrativ über (vertrauenswürdige) KI verändern Wir haben die Chance, die riesigen Vorteile von KI freizusetzen – und müssen uns dringend um Fragen über soziale Missstände und geschlossen Märkte kümmern. Mozilla wird mit Aktivist*innen, Entwickler*innen und Gesetzgebern zusammenarbeiten, damit diese differenziertere Sicht auf KI zum Mainstream wird. Wir arbeiten mit zivilgesellschaftlichen Organisation aus aller Welt zusammen, um politischen Einfluss aufzubauen und das Narrativ zu verändern. Wir rücken außerdem die Stimmen von verantwortlichen Entwickler*innen, Führungskräften aus Tech und Innovator*innen in den Fokus, damit sie in Medien, politischen Debatten und der Popkultur den Kurs der KI bestimmen können.
  • Generative Open-Source-KI vertrauenswürdiger machen – und in den Mainstream holen. Generative Open-Source-KI gewinnt an Momentum. Unser Ziel ist es, sicherzustellen, dass Open-Source-Modelle vertrauenswürdig, sicher, hilfreich und einfach zu nutzen sind. Mozilla Projekte wie Communal AI, eine Plattform für kleine Sprachmodelle, der Common Voice Datensatz und llamafile sind lokale und zugänglichere Modelle, die allein dieses Ziel verfolgen.
  • Verbraucher*innen ermächtigen – und ihnen echte Auswahlmöglichkeiten bieten. In einer Zeit, in der KI mehr und mehr in unseren Alltag verwoben wird, müssen wir für Produkte einstehen, die die höchsten Standards für Datenschutz, Sicherheit und Transparenz priorisieren und aufzeigen. Indem wir uns wertvoller Insights aus Technologien wie Fakespot bedienen, vertiefen wir unser Engagement für die Integration bahnbrechender KI-Fähigkeiten in unserer Produktpalette, die Verbraucher*innen wahrhaftig ermächtigen. Wir weiten den Einfluss dieser Anstrengungen durch Initiativen wie *Datenschutz nicht inbegriffen aus, die für die Ausrüstung der Verbraucher*innen mit grundlegendem Wissen behilflich sind, damit sie informierte Produktentscheidungen treffen können.
  • In das vertrauenswürdige und Open-Source KI-Ökosystem investieren. Ein Unternehmen oder eine Organisation allein kann nicht als Gegengewicht zu Bit Tech agieren – aber eine Community kann das. Wir werden unsere Investitionen in Start-ups, Open-Source-Projekte und gemeinnützige Organisationen weiter ausbauen, die vertrauenswürdige KI entwickeln. Sowohl durch direkte Investitionen als auch durch Förderstiftungen. Mit den entsprechenden Ressourcen hat dieses Ökosystem das Potenzial, die großen Player herauszufordern und KI in eine bessere Richtung zu bewegen.
  • Gesetzgeber bei der Entwicklung und Umsetzung pragmatischer KI-Richtlinien unterstützen Das europäische KI-Gesetz, die Executive Order on AI der USA und ähnliche Initiativen in anderen Ländern zeigen, dass es Gesetzgebern mit vertrauenswürdiger KI ernst ist. Mozilla erweitert seine Ressourcen, um Gesetzgebern bei der Umsetzung von Regulierungen und Richtlinien zu helfen, die aus sowohl einer politischen als auch einer operativen Perspektive hilfreich sind. Diese Arbeit umfasst ebenso die Veröffentlichung von Forschungsthemen wie Open-Source KI-Modelle, Wettbewerb und Datenschutz, auf die sich Gesetzgeber beziehen können. Außerdem müssen Gesetzgeber zusammenkommen und Expertise und Erfahrungen teilen, sowie positive Fortschritte in der Gesetzgebung beleuchten.

Nächste Schritte für das vertrauenswürdige KI-Ökosystem

Wir wollen unseren Teil leisten, aber wir können eine vertrauenswürdige KI nicht in die Realität umsetzen, ohne über das gesamte Ökosystem hinweg zusammenzuarbeiten. Und so können Sie sich beteiligen:

  • Entwickler*innen: Suchen Sie nach Projekten für vertrauenswürdige Open-Source-KI, und tragen Sie dazu bei. Statt sich der bekanntesten urheberrechtlich geschützten Modelle zu bedienen, können Sie die Fortschritte nutzen, die es in Open-Source LLMs gibt und aus kuratierten Quellen wie unserem AI Guide lernen. Treten Sie bei der Entwicklung neuer Tools mit anderen Entwickler*innen, User*innen und Forschenden verschiedenster Hintergründe in Kontakt, um Ihre eigene Sichtweise auszuweiten. Wenn Sie verstehen, wie KI Menschen beeinflussen wird, die nicht denken wie Sie, profitiert Ihr Projekt oder Ihr Produkt garantiert davon.
  • Verbraucher*innen: Seien Sie kritisch – und treffen Sie bewusste Entscheidungen. Verbraucher*innen können nicht beeinflussen, wer KI entwickelt, aber sie können sich für vertrauenswürdigere Produkte entscheiden, wenn diese verfügbar sind, und sie einfordern, wenn es sie nicht gibt. Wir wissen, dass Druck aus der Öffentlichkeit Wandel vorantreiben kann, sogar bei den mächtigsten Unternehmen der Welt. Schauen Sie über den „Coolness-Faktor“ neuer KI-Produkte hinaus und informieren Sie sich über die Vor- und Nachteile, bevor Sie sie ausprobieren. Zugängliche Leitfäden wie unsere Serie *Datenschutz nicht inbegriffen bietet leicht verständliche Vergleiche in einfacher Sprache. So können Sie informierte Entscheidungen treffen; und zwar über alles von Sprachassistenten bis hin zu Smart-Home-Produkten.
  • Gesetzgeber: Priorisieren Sie Offenheit und Verantwortlichkeit in neuen Regeln für KI. Big Tech drängt auf eine Regelung für LLM-Lizenzen, angeblich als Sicherheitsmaßnahme. Aber wir wissen aus Erfahrung, dass wir nicht sicherer sind, wenn wir eingrenzen, wer auf neue digitale Technologien zugreifen oder davon profitieren kann. Offenheit und Verantwortlichkeit können ein Gegengift sein, und Gesetzgeber müssen ihre Gesetze entsprechend ausgestalten.
  • Zivilgesellschaftliche Akteure: Suchen Sie Schnittstellen zwischen KI und Problemen, die Ihnen wichtig sind, in Ihren Communitys. Ob sich eine Organisation mit Menschenrechten, Klimagerechtigkeit, LGBTQ+-Rechten oder ethnischer Gerechtigkeit befasst: KI ist relevant. Philanthropie kann den Einfluss etablierter Technologieunternehmen ausgleichen, indem sie kleinere Akteure unterstützt, die Pionierarbeit im Bereich der künstlichen Intelligenz leisten und damit die Gesellschaft verbessern und nicht nur die Aktienkurse erhöhen. Konzentrieren Sie sich bei der Vergabe von Zuschüssen auf Projekte, bei denen Selbstbestimmtheit, Transparenz und Verantwortlichkeit im Mittelpunkt stehen, und suchen Sie nach Projekten, die mit der Arbeit, die Sie bereits leisten, in Verbindung stehen.
  • Investor*innen: Fördern Sie Unternehmen, Organisationen und Projekte mit einem Fokus auf vertrauenswürdige KI. Es mag verlockend sein, Ihr Geld auf die großen Branchenführer zu setzen, aber alternative KI-Unternehmensmodelle, die den Schutz von Verbraucherdaten und deren Wohlbefinden an erste Stelle setzen, bieten eine riesige Chance. Ganz gleich, ob Sie Risikokapitalgeber*in, institutionelle*r Investor*in oder Philanthrop*in sind – die finanzielle Unterstützung des Wachstums des vertrauenswürdigen KI-Ökosystems wird dazu beitragen, die KI-Risiken zu mindern und gleichzeitig die Erträge über Big Tech hinaus zu verteilen.

KI wird sich in jedem Winkel der Welt auswirken. Um sicherzustellen, dass sie ihr Versprechen für die Menschheit einhält, müssen wir weiter eine breite Koalition an Technolog*innen, Aktivist*innen, Gesetzgebern und Bürger*innen aktivieren. Es gibt noch viel zu tun, aber mit einer Bewegung, die sich auf Offenheit, Selbstbestimmtheit und Verantwortlichkeit gründet, befindet sich eine vertrauenswürdigere KI-Landschaft in greifbarer Nähe. Legen wir los!

Bitte schreiben Sie uns eine E-Mail an [email protected], um Input zu geben und/oder Ihre Lieblingsbeispiele für KI hervorzuheben, die Vertrauen aufbaut und das Leben der Menschen verbessert.

Mit einer Bewegung, die sich auf Offenheit, Selbstbestimmtheit und Verantwortlichkeit gründet, befindet sich eine vertrauenswürdigere KI-Landschaft in greifbarer Nähe.

Weiterführende Literatur

  • This is the real lesson to take away from the OpenAI debacle, Fast Company (Op-ed), Dezember 2023: In einem op-ed erklärt Mark Surman von Mozilla, wie der Kampf um die Governance von OpenAI im November auf die Notwendigkeit öffentlicher Institutionen hinweist, die den Interessen der Menschheit Vorrang vor dem Profit einräumen, insbesondere im Zeitalter der KI, trotz des Scheiterns des gemeinnützigen Modells von OpenAI.
  • When AI doesn’t speak your language, Coda, Oktober 2023: Hebt die Herausforderungen hervor, denen Minderheitssprachen mit KI gegenüberstehen, wo bessere Technologien gleichzeitig den Sprachgebrauch unterstützen und Überwachung verbessern könnten.
  • AI's Present Matters More Than Its Imagined Future, The Atlantic (Op-ed), Oktober 2023: Mozilla-Stipendiatin Inioluwa Deborah Raji schreibt über ihre Erfahrungen bei einem der AI Insight-Foren von Senator Chuck Schumer und darüber, warum die Schäden der Gegenwart dringlicher sind als hypothetische existenzielle AI-Risiken.
  • How should regulators think about "AI"?, Dr. Emily M. Bender (Video), Oktober 2023: Dr. Bender sprach an einem virtuellen Roundtable über KI am Arbeitsplatz, einberufen von Congressman Bobby Scott. Sie schlüsselte die sechs verschiedenen Arten der Automatisierung auf und gab Empfehlungen für die KI-Regulierung.
  • The battle over Open-Source AI, Ben’s Bites (Newsletter), Oktober 2023: Dieser Artikel fasst zusammen, wo die bekannten KI-Unternehmen in Bezug auf die Regulierung fortgeschrittener Open-Source KI-Software stehen.
  • Artificial Intelligence: Advancing Innovation Towards the National Interest, Clément Delangue, Hugging Face (schriftliche Zeugenaussage vor dem Kongress), Juli 2023: In seiner Aussage betonte der CEO von Hugging Face die Wichtigkeit offener KI-Innovationen und den Bedarf an Mechanismen, die eine sichere, transparente KI sicherstellen, die mit nationalen Interessen übereinstimmt.
  • We tested ChatGPT in Bengali, Kurdish, and Tamil. It failed., Rest of World, September 2023: Die Tests von Rest of World zeigten, dass ChatGPT mit vielen unterrepräsentierten Sprachen Schwierigkeiten hat. Das System erfindet häufig Wörter und versagt bei der Beschaffung logischer und grundlegender Informationen, was auf Lücken in den Trainingsdaten für KI hindeutet und den Bedarf an gezieltem Sprach-Support aufzeigt.
  • The Battle Over Books3 Could Change AI Forever, WIRED, September 2023: In diesem Beitrag wird der Streit um den Books3-Trainingsdatensatz beschrieben, der aus einer umfangreichen Sammlung urheberrechtlich geschützter literarischer Werke erstellt wurde und nun im Mittelpunkt von Auseinandersetzungen zwischen Verfechter*innen des freien Zugangs und Urheberrechtsinhaber*innen steht, die um Kontrolle und Entschädigung kämpfen.
  • LoRA Fine-tuning Efficiently Undoes Safety Training from Llama 2-Chat 70B, LessWrong, Oktober 2023: Diese Studie zeigt, wie leicht KI-Modelle manipuliert werden können, um Sicherheitstrainings rückgängig zu machen, was Bedenken hinsichtlich der Risiken der Veröffentlichung von Modellen weckt.
  • Removing RLHF Protections in GPT-4 via Fine-Tuning, University of Illinois Urbana-Champaign and Stanford University, November 2023: Diese Studie deckt auf, dass Angreifer den Schutz vor Verstärkungslernen mit menschlichem Feedback (RLHF) in Sprachmodellen wie GPT-4 aushebeln können, was die Notwendigkeit eines verbesserten Schutzes gegen potenziellen Missbrauch unterstreicht.
  • AI Red-Teaming Is Not a One-Stop Solution to AI Harms, Data & Society, Oktober 2023: In diesem Kurzdossier wird argumentiert, dass das KI-Red-Teaming zwar spezifische technische Schwachstellen aufzeigen kann, aber mit anderen Instrumenten der Verantwortlichkeit kombiniert werden muss, einschließlich algorithmischer Folgenabschätzungen, externer Audits und öffentlicher Konsultationen.
  • DeepMind reportedly lost a yearslong bid to win more independence from Google, The Verge, Mai 2021: Google lehnte den Antrag von DeepMind auf mehr Autonomie und einen Nonprofit-Status aufgrund der fortwährenden finanziellen Verluste der KI-Tochtergesellschaft und dem Bestreben Googles ab, KI-Forschung zu kommerzialisieren.
  • These fake images reveal how AI amplifies our worst stereotypes, The Washington Post, November 2023: KI-Bildgeneratoren wie Stable Diffusion und DALL-E halten erschreckende Stereotypen in Bezug auf Gender und Herkunft aufrecht, trotz Anstrengungen, ihre Trainingsdaten zu entgiften. Dies verbildlicht das dringende Problem inhärenter Voreingenommenheit in KI-Systemen.
  • OpenAI is getting trolled for its name after refusing to be open about its A.I., Fortune, März 2023: Fortune beschreibt die Kritik, der OpenAI aufgrund seiner Nutzung „offener“ Sprache ausgesetzt war, trotz des Fokus auf urheberrechtlich geschützte, geschlossene Quellmodelle.
  • Meta can call Llama 2 open source as much as it likes, but that doesn't mean it is, The Register (Op-ed), Juli 2023: Steven J. Vaughan-Nichols argumentiert, dass Metas Veröffentlichung von Llama 2 unter einer „Gemeinschaftslizenz“ den Open-Source-Prinzipien nicht gerecht wird, sodass es dem Unternehmen bei der Verwendung des Begriffs mehr um Marketing als um die Prinzipien der Open-Source-Community geht.

Weitere Links

Appendix – Andere Projekte von Mozilla zum Thema vertrauenswürdige KI

KI-Entwicklungsstandards ändern

  • Responsible Computing Challenge: 2023 stellte Mozilla Universitäten in Kenia, Indien und den USA 2,7 Mio. US-Dollar zur Verfügung, um verantwortliches Computing in ihre Lehrpläne aufzunehmen. Das Ergebnis: Tausende Studierende – die KI-Entwickler*innen von morgen – setzten sich mit den ethischen Fragen rund um Tech auseinander.
  • Is that Even Legal? Guide: Mozilla schult die Entwickler*innen von KI-Systemen darin, wie sie vertrauenswürdige KI-Systeme innerhalb der bestehenden rechtlichen Rahmenbedingungen auf der ganzen Welt entwickeln können. Unser Leitfaden bietet Forschung und Ratschläge zur Datenverwaltung für Entwickler*innen in Deutschland, Indien, Kenia und den USA.
  • Africa Innovation Mradi: Dieses Programm nutzt Mozillas Rolle als Verwalter des offenen Webs, um Innovationen zu fördern, die sich an den besonderen Bedürfnissen der User*innen in der afrikanischen Region orientieren, angefangen beim östlichen und südlichen Afrika.
  • Mozilla Trustworthy AI Fellowships: Lange vor ChatGPT setzten sich die Mozilla Trustworthy AI Fellows mit den Fehlern, Grenzen und dem Potenzial von KI auseinander. Seit 2019 haben mehr als 50 Fellows die Auswirkungen von KI auf die Gesellschaft erforscht.
  • Mozilla Festival (MozFest): Allzu oft werden die dringendsten Entscheidungen über KI in Silos getroffen. Mozfest ist Mozillas Gegengift für dieses Problem. Das Event versammelt und verbindet Tausende Aktivist*innen, Techniker*innen, Philanthrop*innen und Gesetzgeber aus aller Welt, um eine vertrauenswürdigere KI zu entwickeln und sich vorzustellen.
  • Lelapa AI: Mozilla Ventures investierte in Lelapa AI, ein südafrikanisches Unternehmen, das kürzlich sein erstes Produkt auf den Markt gebracht hat: Vulavula, ein neues KI-Tool, das Sprache in Text umwandelt und Namen von Personen und Orten in geschriebenem Text in vier südafrikanischen Sprachen erkennt. Lelapas CEO, Pelonomi Moila, wurde jüngst in die TIME100-Liste für KI aufgenommen.

Neue Technologien und Produkte entwickeln

  • Responsible AI Challenge: Im Mai 2023 veranstaltete Mozilla eine Veranstaltung mit 175 Teilnehmenden, 7 Workshops und 3 Hauptredner*innen, um zu erforschen, wie unsere vertrauenswürdigen KI-Prinzipien genutzt werden können, um ein Handbuch für Entwickler*innen zu erstellen. Bei der Veranstaltung wurden Preise im Wert von 100.000 US-Dollar an die Gewinner*innen vergeben, die verantwortungsvolle KI-Projekte vorstellten.
  • Mozilla Internet Ecosystem (MIECO): MIECO fördert Innovatoren, die eine gesündere Internet-Experience bauen. Zu den unterstützten Projekten gehört llamafile, das große Open-Source-Sprachmodelle sowohl für Entwickler*innen als auch für Endverbraucher*innen viel leichter zugänglich macht.
  • Mozilla AI Guide: Eine Community-betriebene Ressource, in der Entwickler*innen zusammenkommen können, um Pionierarbeit zu leisten und generative KI-Innovationen voranzutreiben.
  • Mozilla Common Voice: Der weltweit größte, multilinguale Open-Source-Datensatz. Common Voice wird von Forschenden, Akademiker*innen und Entwickler*innen auf der ganzen Welt genutzt, um sprachfähige Technologien zu trainieren und sie letztendlich inklusiver und zugänglicher zu gestalten.
  • Mozilla Technology Fund (MTF): Seit 2022 fördert der MTF Open-Source-Projekte, die den Einfluss von KI auf Probleme wie Voreingenommenheit oder das Klima untersuchen. Ein nennenswertes Projekt, Countering Tenant Screening, zeigt Vorurteile und Diskriminierung bei von Vermietern verwendeten KI-basierten Auswahlservices auf.
  • Mozilla Data Futures Lab (DFL): Der Wettlauf bei der Anhäufung von Daten zur Entwicklung von KI-Modellen und den zugehörigen Testreihen hat neue rechtliche und ethische Fragen zu Quellen und Eingetum der Daten aufgeworfen. Mozilla’s Data Futures Lab entwickelt Produkte und Plattformen, die die vertrauenswürdige Verwaltung von Daten grundlegend neu gestalten.
  • Mozilla.ai: Mozilla hat einen wichtigen Beitrag zur NeurIPS 2023 Large Language Model Efficiency Challenge, zum Workshop der Conference on Knowledge Discovery and Data Mining (KDD) über die Evaluierung von Empfehlungssystemen und zur Forschung über neue Wege zur effizienten Durchführung von Few-Shot-Klassifizierung bei geschlossenen Modellen wie ChatGPT geleistet.
  • Themis AI: Mozilla Ventures investierte in Themis AI, einem in Cambridge, Massachusetts ansässigen Unternehmen, das MITs CSAIL entsprang. Themis geht Voreingenommenheit und Unsicherheit in KI-Modellen an und hat ein Tool entwickelt, CAPSA, das automatisch die Unsicherheit eines beliebigen ML-Modells einschätzen kann.

Das Bewusstsein der Verbraucher*innen schärfen

  • *Datenschutz nicht inbegriffen: *DNI-Leitfäden legen die Realität und Risiken internetfähiger Geräte offen. Der Leitfaden 2023 konzentrierte sich auf Autos und erregte beispiellose Aufmerksamkeit: Unter Berufung auf unsere Forschungsergebnisse forderte US-Senator Ed Markey in einem Schreiben an 14 Autofirmen in den USA Informationen über deren Sammlung, Verwendung und Verkauf personenbezogener Daten.
  • IRL Podcast: In der aktuellen Staffel von IRL wurden weltweit vertrauenswürdige KI-Innovator*innen aus der Zivilgesellschaft, der Industrie und der Politik vorgestellt, die die Themen, die ihnen wichtig sind, mit KI verbinden. Ziel war es, die wachsende Zuhörerschaft von IRL daran zu erinnern, dass man das Menschliche nicht aus Algorithmen entfernen kann. Seit Staffel 7 im Oktober 2023 veröffentlicht wurde, gab es über 100.000 Downloads.
  • Philanthropische Interessenvertretung: Im Jahr 2023 beteiligte sich Mozilla neben anderen führenden Stiftungen an der Zusammenarbeit mit dem Büro von Vizepräsidentin Kamala Harris zur Rolle der Philanthropie bei KI. Wir veröffentlichten außerdem eine Reihe an Prinzipien für die Förderung von KI, die sich an über vier Jahren der Förderung vertrauenswürdiger KI orientieren.
  • Open-Source Recherche- und Untersuchungsteam (OSRI): Das OSRI-Team nutzt Daten aus Crowdsourcing, um undurchsichtige und einflussreiche KI-System transparenter zu machen und zur Verantwortung zu ziehen. Das Team hat mehrere Rechercheberichte über YouTubes Empfehlungsalgorithmus veröffentlicht.
  • Mozilla Innovationswoche: Im Dezember 2023 bot Mozilla einen Einblick hinter die Kulissen von einigen unserer KI-betriebenen Untersuchungen, darunter Solo, MemoryCache, AI Guide und llamafile, und übertrugen diesen Einblick auf unserem AI Discord und dem Mozilla YouTube-Kanal für Entwickler*innen. Ziel war es, transparent zu zeigen, woran wir arbeiten und was wir damit erreichen wollen.
  • MemoryCache: Dieses Mozilla Innovation-Projekt ist ein frühes Forschungsprojekt, das ein persönliches Modell auf dem Gerät mit lokalen, im Browser gespeicherten Dateien ergänzt, um ein personalisiertes und maßgeschneidertes Erlebnis unter dem Gesichtspunkt der Privatsphäre und der Handlungsfähigkeit zu ermöglichen.

KI-Richtlinien und -Anreize stärken

  • Joint Statement on AI Safety and Openness: In diesem offenen Brief, der von über 1.800 Wissenschaftler*innen, politischen Entscheidungsträgern, Ingenieur*innen, Aktivist*innen, Unternehmer*innen, Pädagog*innen und Journalist*innen unterzeichnet wurde, werden die Gesetzgeber weltweit dazu aufgefordert, sich für Offenheit, Transparenz und einen breiten Zugang einzusetzen, um die von KI-Systemen ausgehenden Schäden zu verringern.
  • C2PA Standard: Mozilla Ventures’ Portfoliounternehmen Truepic – ein wichtiges Mitglied des C2PA – setzt sich für eine offene technische Norm für die Inhaltsverifizierung ein, einschließlich generativer KI. Der C2PA Standard wird es Publishers, Creator*innen und Verbraucher*innen ermöglichen, die Herkunft KI-generierter Inhalte nachzuvollziehen.
  • Lobbykampagnen der EU und USA: Mozilla setzte sich umfassend mit den Gesetzgebern rund um das KI-Gesetz der EU auseinander, und in den USA zum Thema KI-Risikomanagement und Verantwortlichkeit.

Vielen Dank an die folgenden Beitragenden: J. Bob Alotta, Ashley Boyd, Ian Carmichael, Moez Draief, Max Gahntz, Linda Griffin, Stephen Hood, Saoud Khalifah, Santiago Martorana, Mohamed Nanabhay, Alondra Nelson, Kasia Odrozek, Becca Ricks, Victor Storchan, Udbhav Tiwari, Imo Udom, Suba Vasudevan und Claire Woodcock.