Maior parte do trabalho de construção em movimento na Mozilla está focada no desenvolvimento de inteligência artificial confiável.

Precisamos avançar em direção a um mundo em que a inteligência artificial seja útil — ao invés de prejudicial — para os seres humanos. Para nós isso significa duas coisas: a mediação humana seja parte essencial de como a inteligência artificial é criada e integrada, e a responsabilidade corporativa seja real e obrigatória.

A necessidade deste trabalho é urgente. Diariamente, saem nos noticiários histórias preocupantes sobre os efeitos da inteligência artificial, big data e publicidade direcionada. Também, repetidas vezes lemos que o público está perdendo a confiança nas grandes empresas de tecnologia, mas não tem alternativas.

Muitos de nós ainda não entendemos completamente como a inteligência artificial influencia normalmente nossas vidas e nos sentimos impotentes diante desses sistemas. Na Mozilla, estamos dedicados a assegurar que todos entendamos que podemos e devemos ter voz quando máquinas são usadas para tomar decisões importantes ─ e moldar como tais decisões são realizadas.

Os desafios incluem:
  • PRIVACIDADE: Nossos dados pessoais alimentam tudo, desde mapas de tráfego a publicidade direcionada. A inteligência artificial confiável deve permitir que as pessoas decidam como seus dados são usados e que decisões são tomadas com eles.
  • EQUIDADE: Vimos repetidamente que tendências históricas podem se manifestar nas tomadas de decisão automatizadas. Para combater a discriminação de maneira efetiva, precisamos olhar mais atentamente para os objetivos e os dados que alimentam nossa inteligência artificial.
  • CONFIANÇA: Algoritmos em sites como o YouTube com frequência levam pessoas em direção a conteúdo enganoso e extremista. A reformulação desses sistemas de recomendação de conteúdo pode ajudar bastante a restringir a desinformação.
  • SEGURANÇA: Especialistas alertaram que a inteligência artificial pode aumentar os riscos à segurança e os crimes cibernéticos. Os desenvolvedores de plataformas precisarão criar medidas mais fortes para proteger nossos dados e a segurança pessoal.
  • TRANSPARÊNCIA: As decisões automatizadas podem ter um enorme impacto pessoal, mas os motivos das decisões geralmente são opacos. Precisamos de grandes avanços em explicabilidade e transparência para proteger os usuários.

Estamos abordando a luta por inteligência artificial confiável de três principais maneiras:

Mudança sistêmica
Estamos mudando a conversa de ‘comportamento pessoal’ para ‘mudança sistêmica’.

A colega Renée DiResta tem sido fundamental para mudar as conversas sobre desinformação, de 'notícias falsas' (fake news) para 'liberdade de expressão não é igual a alcance livre'. As empresas deram resposta: o Pinterest parou de compartilhar resultados de pesquisas de vacinação e o Facebook começou a promover informações da OMS com postos de vacina.

Imagem: Responsabilização de empresas
Estamos pressionando empresas a assumir responsabilidade e nossa abordagem está se espalhando.

Para nossa campanha Arrependimentos no YouTube, coletamos de usuários do YouTube histórias sobre o mecanismo de recomendação da plataforma os levar a caminhos bizarros e às vezes perigosos. Este trabalho foi catalisado por nossa própria pesquisa sobre inteligência artificial confiável, histórias na mídia e por engenheiros do YouTube que se pronunciaram.

Inovações em inteligência artificial confiável
Apoiamos inovações em inteligência artificial confiável.

O "Projeto Meridio" do colega Dave Gehring busca criar uma estrutura econômica viável para apoiar o jornalismo fora do atual modelo de anúncios baseado em vigilância. Ele estabeleceu o interesse e documentou as necessidades entre os editores. Agora passará a criar a plataforma que forneceria serviços.