Você já foi vítima de um processo burocrático que parecia desafiar a lógica? Sou Richard Whitt, membro da Mozilla, de volta com a segunda parte de "O futuro das IAs pessoais". Da última vez, falamos sobre a inteligência artificial (IA) que funciona por trás das nossas telas online e em nossos cenas ambientais. Neste episódio de Mozilla Explica, falamos sobre como a IA funciona no que chamo de burocráticas invisíveis. Assista ao episódio abaixo ou continue lendo para saber mais.

Burocráticas invisíveis são os sistemas avançados que tomam decisões sobre nós, geralmente sem nossa contribuição ou mesmo nosso conhecimento, muitas vezes em nome de grandes instituições como o governo ou grandes corporações. Quais empregos conseguimos, quais empréstimos bancários podemos receber, até mesmo quais benefícios do governo podemos receber – do registro de voto aos pagamentos de previdência social. Incontáveis decisões desse tipo acontecem todos os dias, mesmo que não tenhamos consciência delas.

Mesmo que sejam apresentadas como úteis ou que poupam trabalho, as IAs por trás dessas "invisíveis" representam grandes corporações ou agências governamentais, coletando nossos dados, analisando-nos e tomando decisões de consequências imensas com relação ao nosso bem-estar. No passado, os seres humanos eram responsáveis por tomar essas decisões. Hoje, são algoritmos de computador que priorizam rigidamente processos, regras e procedimentos, muitas vezes sem supervisão ou julgamento humano. Esses sistemas podem empregar involuntariamente algoritmos altamente enviesados e conjuntos de dados com falhas. E tudo isso acontece sem que tenhamos nenhum meio legítimo de apelar ou contestar.

Da última vez, apresentamos o conceito de IA pessoal (IAP), uma IA que representa verdadeiramente nossos melhores interesses, em vez de uma empresa com fome de dados. Essas IAs podem ser programadas para nos representar, como seres humanos individuais, não como pontos de dados. Assim, elas poderiam proteger nossa privacidade, segurança e identidade, e ao mesmo tempo promover nossos melhores interesses.

AIs pessoais também podem ser nossos agentes de confiança, interagindo com burocráticas invisíveis – comunicando-se diretamente com AIs institucionais em nosso nome.

Um exemplo pode ser solicitar à IA governamental ou corporativa que forneça à minha IAP os motivos específicos pelos quais tomou uma decisão específica, como se eu fui ou não aceito para um empréstimo, entrevistado para um emprego ou tive minha pena de prisão prolongada. Então, minha AIP seria capaz de fazer perguntas informadas, avaliar as mesmas evidências, questionar o resultado e até mesmo desafiar diretamente a lógica analítica e baseada em dados para decisões desse tipo.

Como chegamos lá a partir daqui?

Precisamos da tecnologia, dos mercados, dos padrões e das leis para alinhar, para que os governos e as empresas possam acomodar essas novas ferramentas dos cidadãos.

Em particular, precisamos trabalhar com nossos diretores, reguladores e agências governamentais eleitas para exigir um "direito de delegar" decisões importantes sobre as interações online de alguém a um terceiro confiável e um "direito de consultar", usando minha IAP para questionar e desafiar os sistemas institucionais de IA, tomando decisões importantes sobre mim e a minha família.

Quer se aprofundar mais neste tópico? Você pode ler mais sobre isso em meu artigo "Democratizando a IA: garantindo a autonomia humana sobre nossas 'telas, cenas e invisíveis' computacionais".