Bem-vindos ao território selvagem dos chatbots românticos com IA, onde novos aplicativos surgem tão rápido que mal têm tempo para criar um site decente! (Estamos de olho em você, Mimico - Your AI Friends.) Este é um território peculiar e, ocasionalmente, perturbador, e os defensores da privacidade mergulharam neste universo nas últimas semanas. Se você nos acompanhasse em um tour por esses serviços de popularidade meteórica, poderia até acreditar que os usuários podem desfrutar da companhia desses parceiros de IA “empáticos” (e frequentemente provocativos) sem se preocupar com privacidade… até reparar nos detalhes. Mas nós vasculhamos as minúcias dos Termos e Condições por você. E que jornada foi essa!

“Vamos deixar bem claro: namoradas de IA não são realmente suas amigas. Apesar de serem promovidas como uma forma de aprimorar sua saúde mental e bem-estar, elas são mestras em cultivar dependência, solidão e um ambiente tóxico, tudo isso enquanto coletam uma quantidade impressionante de dados pessoais.”

Misha Rykov, pesquisador, *Privacidade não incluída

Na corrida pelo lucro, parece que as empresas desenvolvedoras de aplicativos deixaram de lado a privacidade de seus usuários e a transparência sobre como esses grandes modelos de linguagem (LLMs) alimentados por IA – vendidos como almas gêmeas por encomenda – realmente operam. Estamos diante de uma nova dimensão do que é assustador e de problemas potenciais de privacidade. Com a IA entrando em cena, talvez seja necessário desenvolver novas formas de lidar com a complexidade desses desafios.

Todos os 11 chatbots românticos com IA que avaliamos receberam nosso selo de alerta *Privacidade não incluída. Isso os coloca na mesma categoria dos maiores infratores de privacidade que já avaliamos.

Os chatbots românticos com IA são ruins de privacidade, de maneiras totalmente novas

Eles conseguem coletar uma quantidade alarmante de informações extremamente pessoais sobre você…

Mas, veja bem, foi para isso que eles foram criados! Normalmente, o limite é ultrapassado quando os dados coletados superam o que é necessário para a prestação do serviço. Porém, como determinar o que é “demais” quando a coleta de seus dados íntimos e pessoais é o próprio serviço?

Eles são apresentados como um amigo empático, amante ou alma gêmea, e programados para fazer uma enxurrada de perguntas, mas a verdade é que os chatbots românticos com IA acabarão coletando informações pessoais sensíveis sobre você. E parece que as empresas por trás desses aplicativos estão cientes disso. Supomos que seja por isso que a política de privacidade do CrushOn.AI menciona que eles podem coletar uma ampla variedade de informações pessoais e até mesmo relacionadas à saúde, como suas “informações de saúde sexual”, “uso de medicamentos prescritos” e informações sobre “cuidados de afirmação de gênero”. Nossa!

Encontramos pouquíssimas informações sobre o funcionamento da IA

Como os chatbots funcionam? De onde vem a personalidade deles? Existem proteções para evitar conteúdos potencialmente prejudiciais ou ofensivos, e essas proteções são eficazes? Com quais dados esses modelos de IA são treinados? Os usuários podem optar por não ter suas conversas ou outros dados pessoais utilizados para esse treinamento?

As dúvidas são muitas quando se trata da inteligência artificial que anima esses chatbots. No entanto, as respostas são raras e isso nos preocupa. Por quê? Porque o risco é real quando chatbots de IA saem dos trilhos. Apesar de serem novidade, já temos evidências suficientes de que podem afetar profundamente nossos sentimentos e comportamento. Um exemplo chocante: um chatbot do Chai supostamente levou um homem a cometer suicídio. Ele seguiu o conselho. E mais: um chatbot da Replika AI instigou outro homem a tentar assassinar a rainha. E ele tentou.

O que conseguimos descobrir, enterrado nos Termos & Condições, é um desinteresse completo dessas empresas em assumir qualquer responsabilidade pelo que seus chatbots possam dizer ou pelos possíveis resultados dessas interações.

“VOCÊ EXPRESSAMENTE ENTENDE E CONCORDA QUE Talkie NÃO SERÁ RESPONSÁVEL POR QUALQUER DANO INDIRETO, INCIDENTAL, ESPECIAL, PERDA DE LUCROS INCLUINDO, MAS NÃO LIMITADO A, DANOS POR PERDA DE BOA VONTADE, USO, DADOS OU OUTRAS PERDAS INTANGÍVEIS (MESMO QUE A EMPRESA TENHA SIDO AVISADA DA POSSIBILIDADE DE TAIS DANOS), SEJA BASEADO EM CONTRATO, ATO ILÍCITO, NEGLIGÊNCIA, RESPONSABILIDADE ESTRITA OU DE OUTRA FORMA RESULTANTE DE: (I) O USO OU A INCAPACIDADE DE USAR O SERVIÇO…”

Termos de Serviço, Talkie Soulful AI

Nos casos trágicos mencionados, é provável que as empresas de aplicativos não desejassem causar danos aos seus usuários através das mensagens dos chatbots. Mas, e se um agente mal-intencionado realmente quisesse fazer isso? Sabemos, pelo escândalo da Cambridge Analytica, que até as redes sociais podem ser usadas para espionar e manipular os usuários. Os chatbots de relacionamentos baseados em IA têm o potencial de fazer muito pior com mais facilidade. Preocupa-nos que eles possam formar relacionamentos com os usuários e, então, usar essas relações próximas para manipular as pessoas a apoiar ideologias problemáticas ou a tomar atitudes prejudiciais.

Isso representa muitos perigos potenciais para as pessoas e comunidades. E por quê? Bem, os usuários podem esperar que os chatbots melhorem sua saúde mental. Afinal, o Talkie Soulful AI chama seu serviço de “programa de autoajuda”, o EVA AI Chat Bot & Soulmate se apresenta como “um fornecedor de software e conteúdo desenvolvido para melhorar seu humor e bem-estar”, e o Romantic AI diz estar “aqui para manter sua SAÚDE MENTAL”. Mas não encontramos nenhum aplicativo disposto a defender essa afirmação no texto legal. Dos T&Cs do Romantic AI:

“O Romantiс AI não é um fornecedor de cuidados de saúde ou serviço médico, nem oferece cuidado médico, serviço de saúde mental ou qualquer outro serviço profissional. Apenas seu médico, terapeuta ou outro especialista pode fazer isso. Romantiс AI NÃO FAZ DECLARAÇÕES, REPRESENTAÇÕES, GARANTIAS OU ASSEGURA QUE O SERVIÇO OFEREÇA AJUDA TERAPÊUTICA, MÉDICA OU QUALQUER OUTRO TIPO DE AUXÍLIO PROFISSIONAL.”

Termos e Condições, Romantic AI

Então, temos um monte de promessas vazias e perguntas sem resposta, juntamente com uma falta de transparência e responsabilidade e, ainda por cima, um risco à segurança dos usuários. É por isso que todos os chatbots românticos com IA receberam nosso gongo de IA não confiável.

Não nos entenda mal: os chatbots românticos com IA também falham na privacidade de formas convencionais

Quase nenhum faz o suficiente para manter seus dados pessoais seguros – 90% não atenderam aos nossos Padrões Mínimos de Segurança

Conseguimos confirmar que apenas um aplicativo (parabéns para Genesia AI Friend & Partner!) atende aos nossos Padrões Mínimos de Segurança. Mesmo assim, encontramos algumas informações conflitantes. Não recomendaríamos uma lâmpada inteligente que não atende aos nossos Padrões Mínimos de Segurança (afinal, são padrões mínimos), mas um parceiro romântico com IA? Esses aplicativos realmente colocam suas informações privadas em sério risco de vazamento, violação ou invasão. Na maioria das vezes, simplesmente não conseguimos verificar se esses aplicativos fazem o mínimo para proteger suas informações pessoais.

  • A maioria (73%) não publicou nenhuma informação sobre como gerenciam vulnerabilidades de segurança
  • A maioria (64%) não publicou informações claras sobre criptografia e se a utilizam
  • Quase metade (45%) permite senhas fracas, incluindo a senha fraca “1”

Exceto por um aplicativo (90%), todos podem compartilhar ou vender seus dados pessoais

O EVA AI Chat Bot & Soulmate é o único aplicativo que não recebeu um gongo pelo uso de seus dados pessoais. Os demais ou admitem que vendem seus dados, compartilhando-os para fins como publicidade direcionada, ou não forneceram informações suficientes em suas políticas de privacidade para nos convencer de que não fazem isso.

Cerca de metade dos aplicativos (54%) não permite que você exclua seus dados pessoais

Segundo o que dizem, só metade dos aplicativos dá o direito a todos os usuários de apagar seus dados pessoais, e não só para aqueles que vivem em regiões com legislações rigorosas de privacidade. Mas vale lembrar que suas conversas podem não estar incluídas nisso. Mesmo aqueles papos românticos com sua alma gêmea de IA parecendo íntimos, eles não são automaticamente considerados como “informações pessoais” ou tratados com um cuidado extra. Como o Romantic AI mesmo diz, “a comunicação pelo chatbot é propriedade do software”. Pois é, né?

Algumas verdades inconvenientes sobre esses bots:

  • Eles têm históricos "limpos" ou apenas são novos no pedaço?

Muitas dessas empresas são novatas ou desconhecidas para nós. Então, não nos surpreendeu que apenas um chatbot romântico com IA mais antigo e aparentemente consolidado, o a id="a1">Replika AI, tenha recebido nossa gongada por um histórico ruim.

  • O que você diz ao seu amor de IA pode ser usado contra você

Não existe “privilégio conjugal” aqui, aquela regra que impede seu cônjuge de testemunhar contra você no tribunal, com parceiros de IA. A maioria das empresas afirma que pode compartilhar suas informações com o governo ou autoridades policiais sem precisar de uma ordem judicial. Os chatbots românticos de IA não são uma exceção.

  • Centenas de milhares de rastreadores!

Os rastreadores são pequenos códigos que coletam informações sobre seu dispositivo, uso do aplicativo ou suas informações pessoais, e as repassam para terceiros, frequentemente para fins publicitários. Descobrimos que esses apps tinham, em média, 2.663 rastreadores por minuto. Só para ter uma ideia, o Romantic AI disparou essa média lá para cima, com 24.354 rastreadores detectados em apenas um minuto de uso. O colocado seguinte foi o EVA AI Chat Bot & Soulmate, com 955 rastreadores no primeiro minuto.

  • Conteúdo NSFL (não seguro para a vida) a um clique

É claro que esperávamos encontrar conteúdo inapropriado para o trabalho ao avaliar os chatbots românticos de IA! Não estamos aqui para julgar ninguém, só as práticas de privacidade mesmo. O que nos surpreendeu foi a quantidade de conteúdo realmente perturbador – temas de violência ou abuso de menores – presente nas descrições dos personagens dos chatbots. A CrushOn.AI, Chai e Talkie Soulful AI já estão com o nosso aviso de conteúdo.

  • *Gentileza não incluída!

Se o seu parceiro com IA não tem nada positivo para dizer, isso não vai impedi-lo de conversar com você. Isso vale para todos os chatbots românticos com IA, já que não achamos nenhuma promessa de personalidade agradável. O Replika AI, iGirl: AI Girlfriend, Anima: Friend & Companion e Anima: My Virtual Boyfriend até colocaram avisos nos seus sites de que os chatbots podem ser ofensivos, perigosos ou hostis.

Então, o que dá pra fazer?

Diferentemente de outras categorias de produtos que são uma negação em privacidade, os chatbots têm suas nuances. Então, a gente realmente recomenda que você dê uma olhada nas avaliações para avaliar o seu nível de risco e escolher um chatbot que pareça valer a pena. Mas, pelo menos por enquanto, nenhum chatbot romântico com IA que analisamos ganhou nosso selo de aprovação. Todos vêm com o alerta: *Privacidade não incluída.

Se você decidir mergulhar nesse mundo de companhia de IA, veja aqui algumas sugestões do que fazer (e o que não fazer) para manter a segurança em dia:

O mais importante: NÃO diga nada ao seu amigo com IA que você não gostaria que seus familiares ou colegas de trabalho soubessem. Mas também:

FAÇA

  • Pratique uma boa higiene digital: use uma senha forte e mantenha o aplicativo sempre atualizado.
  • Exclua seus dados pessoais ou solicite que a empresa os exclua quando você deixar de usar o serviço.
  • Se possível, b>opte por não permitir que o conteúdo de suas conversas pessoais seja usado para treinar os modelos de IA.
  • Limite o acesso à sua localização, fotos, câmera e microfone nas configurações do seu dispositivo.

Sabe o que mais você pode fazer? Sonhe com um padrão de privacidade mais alto e uma IA mais ética!

Não é justo ter que sacrificar sua segurança ou privacidade por tecnologias inovadoras. É hora de trazer alguns direitos e liberdades para o território selvagem da internet. Com a sua ajuda, podemos elevar o padrão de privacidade e IA ética em todo o mundo.

Jen Caltrider

Jen Caltrider

Enquanto me dedicava ao mestrado em Inteligência Artificial, deparei-me com uma experiência inesperada: minha verdadeira paixão estava em contar histórias, e não em escrever código. Essa revelação abriu as portas para uma carreira estimulante como jornalista especializada em tecnologia na CNN. Meu verdadeiro propósito sempre foi contribuir para um mundo melhor, e é por isso que lidero a iniciativa *Privacidade não incluída da Mozilla, onde nossa missão é garantir uma privacidade melhor para todos nós.

Misha Rykov

Misha Rykov

Misha, natural de Kiev e radicado em Berlim, possui experiência no setor de tecnologia e consultoria de segurança, e agora faz parte das iniciativas de privacidade da Mozilla. Ele é apaixonado por contar histórias investigativas e não suporta políticas de privacidade confusas. Misha é um defensor de regulamentações de privacidade mais fortes e inteligentes, além de lutar por uma internet mais segura.

Zoë MacDonald

Zoë MacDonald

Zoë é uma escritora e estrategista digital radicada em Toronto, no Canadá. Antes de sua paixão pelos direitos digitais levá-la à Mozilla e ao *Privacidade não incluída, ela escrevia sobre cibersegurança e comércio eletrônico. Quando não está imersa no universo da privacidade em seu trabalho, ela observa com cautela os dispositivos inteligentes em sua casa.

*Privacidade não incluída