A OpenAI lançou o ChatGPT no final de novembro de 2022 e é quase risível pensar em como muitos de nós estávamos entusiasmados com o texto gerado pela IA. Agora a OpenAI está levando seus talentos para o mundo dos vídeos. O Sora é a ferramenta mais recente da empresa e permitirá que os usuários criem vídeos de alta definição a partir de um simples parágrafo de texto. A OpenAI oferece alguns exemplos de vídeos gerados por IA em seu site e as filmagens variam de impressionantes a assustadoras e “não acredito que a IA pode transformar minhas palavras em imagens tão facilmente”.

(Vale a pena notar que o Sora ainda não está disponível para o público, então não o experimentamos. Ainda.)

Como saber se o vídeo foi gerado por IA

Você pode estar preocupado em viver em um mundo onde qualquer pessoa pode fazer um vídeo hiper-realista com apenas algumas frases. O que isso significa para as eleições políticas? O que isso significa para golpes de deepfake? O que isso significa para os trolls que estão muito ansiosos para usar indevidamente a imagem de uma figura pública?

Por enquanto, os vídeos de IA gerados pelo Sora contêm uma marca d'água no canto inferior direito. (A marca d'água parece uma forma de onda que se transforma no logotipo da OpenAI.) Mas não é difícil imaginar maneiras pelas quais as pessoas podem esconder essa marca d'água se quiserem (simplesmente cortá-la, por exemplo) ou deixar de vê-la completamente. Existem outras maneiras de saber se um vídeo foi gerado por IA?

Valentine Goddard é uma Premiada em Mídia Criativa da Mozilla e advogada especializada em IA. Conversamos com Valentine, seu conselho era prestar atenção ao impossível. "Os sinais óbvios incluem impossibilidades físicas, como correr na direção errada na esteira, [pessoas com] muitos dedos ou galhos de árvores que são perfeitos demais", diz Valentine. O vídeo da esteira no site da OpenAI (além de parecer um filme de terror fitness) sugere uma falta de física que muitas vezes vemos em imagens compostas por IA. Valentine também orienta para ficarmos de olho nos seres vivos — humanos, animais de estimação, etc. — e verificar se eles parecem genuínos. “Também acho o vazio nos olhos e a velocidade lenta dos personagens muito reveladores nos vídeos. Há algo mecânico no movimento.”

Existe uma maneira de detectar desinformação em vídeos gerados por IA?

É tudo diversão e brincadeira quando uma pessoa qualquer está andando pela rua ou correndo de costas em uma esteira, mas o que acontece quando alguém usa um vídeo gerado por IA para se passar pelo presidente Biden?

Ferramentas como o Sora estão mudando as regras quando se trata de detectar desinformação em seu feed de mídia social e em seus bate-papos em grupo. O conselho acima ainda se aplica: procure a marca d'água da OpenAI, procure olhares vazios nos olhos e velocidades lentas de movimento e procure as impossibilidades — quantos dedos estão presentes? Eles estão presos a um corpo?

Junto com uma verificação de dedo, considere a origem do conteúdo. É uma fonte de notícias respeitável compartilhando o vídeo ou é o primo Larry? Se for o primo Larry, talvez seja prudente verificar a fonte do vídeo.

O vídeo gerado por IA está aqui. E agora?

Como sempre, será difícil desfazer o que foi feito, o vídeo de IA chegou para ficar. Então, para onde vamos a partir daqui? Valentine recomenda que todos nós demos um tempo e consideremos as ramificações do que poderia vir. "Acho que as empresas que implementam a IA de forma irresponsável precisam fazer uma pausa e usar parte de seus lucros para se envolver com as partes interessadas", diz Valentine. “Como alguém que trabalha na política de IA, como artista, como cidadã, acho muito irresponsável continuar a acumular fundos para desenvolvimentos técnicos quando a capacidade de adaptação da sociedade não é igualmente financiada.”

Valentine quer que os pesquisadores de IA considerem grupos de pessoas que podem não se parecer com eles ou compartilhar suas circunstâncias. “Pesquisas mostram que a IA prejudica mais as mulheres — as empreendedoras em IA, por exemplo, ganham menos dinheiro — e que as mulheres terão menos oportunidades e acesso igualitário ao trabalho nas economias digitais”, diz Valentine. "Eles continuam dizendo que a IA é perigosa, mas quais são seus planos concretos para torná-la segura para as mulheres, para as comunidades racializadas, marginalizadas, LGBTQ e indígenas?"

Enquanto isso, essa tecnologia está quase aqui. Os dedos podem ser difíceis de desenhar para artistas profissionais e para a IA, mas com o tempo a IA só ficará melhor em suavizar as impossibilidades. Certifique-se de confiar em fontes de notícias confiáveis ao tentar descobrir se as filmagens são verdadeiras ou falsas.

Este vídeo foi gerado usando IA? Veja como saber

Escrito por: Xavier Harding

Editado por: Audrey Hingle, Kevin Zawacki, Tracy Kariuki, Xavier Harding

Arte por: Shannon Zepeda


Conteúdo relacionado