La salud de Internet

¿Qué queremos decir con la “salud de Internet?”

Gran parte de la labor de movilización de Mozilla se centra en desarrollar una IA confiable.

Necesitamos avanzar hacia un mundo donde la IA beneficie, más que perjudique, a los seres humanos. Para nosotros esto significa que 1) la acción humana forme parte integral de la manera de construir e incorporar la IA, y 2) la responsabilidad corporativa sea real y se haga cumplir.

Esta es una labor que se necesita con urgencia. Cada día vemos noticias preocupantes sobre los efectos de la IA, los macrodatos y la mercadotecnia dirigida, y leemos relatos de que los ciudadanos están perdiendo la confianza en las grandes tecnológicas y no hay nada que puedan hacer al respecto.

Muchos de nosotros, aunque no del todo conscientes de la influencia continua de la IA en nuestras vidas, nos sentimos impotentes ante dichos sistemas. Mozilla se dedica a asegurar que todos entendamos que podemos y debemos tener voz y voto en cuándo utilizar máquinas para tomar decisiones importantes y cómo se deben tomar.

Entre otros, los aspectos de nuestra labor incluyen:
  • PRIVACIDAD: Nuestros datos personales alimentan infinidad de cosas, desde mapas del transito hasta la publicidad dirigida. La IA debería permitir que la gente decida cómo se usan sus datos y qué decisiones se toman con ellos.
  • EQUIDAD: Hemos podido constatar repetidamente que el sesgo histórico puede presentarse en la toma de decisiones automatizada. Para resolver de fondo esta discriminación, necesitamos analizar detenidamente los propósitos y datos que alimentan nuestra IA.
  • CONFIANZA: Los algoritmos en sitios como YouTube suelen conducirnos a contenido extremo y engañoso. La transformación radical de estos sistemas de recomendación de contenido podría hacer mucho en el combate a la desinformación
  • SEGURIDAD: Distintos expertos han advertido que la IA podría aumentar los riesgos de seguridad y la delincuencia cibernética. Los desarrolladores de plataformas necesitan tomar medidas más estrictas para proteger nuestros datos y seguridad personal.
  • TRANSPARENCIA: Las decisiones automatizadas pueden repercutir enormemente en nosotros, y, no obstante, los motivos de esas decisiones pocas veces son transparentes. Necesitamos lograr avances en la explicabilidad y transparencia para proteger a los usuarios.

Abordamos la lucha por una IA confiable de tres maneras fundamentales:

systems-change@2x.jpg
Estamos cambiando el punto focal del "comportamiento personal" a la "modificación de los sistemas".

Nuestra colega Renée DiResta ha sido pieza fundamental para que el centro de la conversación ya no gire en torno a las "noticias falsa" sino a "la libertad de expresión no equivale a libertad de intrusión." Las compañías han reaccionado: Pinterest dejó de compartir datos sobre búsquedas de vacunas y Facebook ha empezado a promover información de la OMS acerca de publicaciones sobre vacunas.

accountable-companies@2x.jpg
Estamos haciendo que las compañías se responsabilicen y otros nos están imitando.

Para nuestra campaña de Contrariedades en YouTube, recopilamos historias de usuarios de YouTube sobre cómo el motor de recomendaciones de esta plataforma los condujo por rumbos extraños y a veces peligrosos. Este trabajo se derivó de nuestra propia investigación sobre historias de IA confiable en los medios y las denuncias de algunos ingenieros de YouTube.

trustworthy-ai@2x.jpg
Estamos a favor de las innovaciones de IA confiables.

El Proyecto Meridio de nuestro colega Dave Gehring tiene por objetivo crear un marco económico viable para sustentar el periodismo fuera del actual modelo de anuncios basado en vigilancia. Dave ha despertado el interés y documentado la necesidad de las casas editoriales, y ahora va a construir la plataforma que proporcione los servicios.