Na Internet Ninguém Sabe Se Você é Humano

À medida que bots, avatares e geradores de Inteligência Artificial (IA) se tornam cada vez mais “humanos”, como os criadores de conteúdo provam que são reais?

Ilustração de Brian Scagnelli mostrando a ansiedade de ter que se provar humano no mundo digital
Como se provar humano no mundo digital?

Em abril passado, Nicole, de 27 anos, postou um vídeo no TikTok sobre se sentir esgotada em sua carreira. Quando ela verificou os comentários no dia seguinte, no entanto, uma conversa diferente estava acontecendo.

“Caramba, isso não é um ser humano de verdade”, escreveu um comentarista. “Eu estou assustado.”

“Não é legítimo que ela seja IA”, disse outro.

Nicole, que mora na Alemanha, tem alopecia. É uma condição que pode resultar em perda de cabelo em todo o corpo de uma pessoa. Por causa disso, ela está acostumada com as pessoas olhando para ela de maneira estranha, tentando descobrir o que está “errado”, diz ela em uma video chamada. “Mas nunca tirei essa conclusão, que [eu] devo ser gerado artificialmente (CGI) ou algo assim.”

Nos últimos anos, as ferramentas de IA e as criações de CGI ficaram cada vez melhores em fingir serem humanos. O novo chatbot do Bing está se apaixonando e de vez em quando alucina, e influenciadores como CodeMiko e Lil Miquela nos pedem para tratar um espectro de personagens digitais como pessoas reais. Mas, à medida que as ferramentas para personificar a humanidade se tornam cada vez mais realistas, os criadores humanos on-line às vezes se encontram em uma situação incomum: sendo solicitados a provar que são reais.

Quase todos os dias, uma pessoa é solicitada a provar sua própria humanidade para um computador. Em 1997, pesquisadores da empresa de tecnologia da informação Sanctum inventaram uma versão inicial do que hoje conhecemos como “CAPTCHA” como uma forma de distinguir entre ação computadorizada automática e ação humana. O acrônimo, posteriormente cunhado por pesquisadores da Carnegie Mellon University e da IBM em 2003, é um substituto para o algo volumoso “teste de Turing público completamente automatizado para diferenciar computadores e humanos”. Os CAPTCHAs são empregados para impedir que bots façam coisas como se inscrever em endereços de e-mail em massa, invadir sites comerciais ou se infiltrar em pesquisas online. Eles exigem que cada usuário identifique uma série de letras obscuras ou, às vezes, simplesmente marque uma caixa: “Não sou um robô”.

Essa prática relativamente benigna assume um novo significado em 2023, quando o surgimento de ferramentas OpenAI como DALL-E e ChatGPT surpreendeu e assustou seus usuários. Essas ferramentas podem produzir artes visuais complexas e produzir ensaios legíveis com a ajuda de apenas algumas palavras-chave fornecidas por humanos. O ChatGPT possui 30 milhões de usuários e cerca de 5 milhões de visitas por dia, de acordo com o The New York Times. Empresas como Microsoft e Google se esforçaram para anunciar seus próprios concorrentes.

Não é de admirar, então, que a paranóia da IA dos humanos esteja no auge de todos os tempos. Aquelas contas que apenas mandam um “oi” para você no Twitter? Bots. Aquela pessoa que curtiu todas as fotos do Instagram que você postou nos últimos dois anos? Um bot. Um perfil que você sempre encontra em todos os aplicativos de namoro, não importa quantas vezes deslize para a esquerda? Provavelmente também um bot.

A acusação de que alguém é um “robô” tornou-se uma espécie de caça às bruxas entre os usuários de mídia social, usada para desacreditar aqueles de quem eles discordam, insistindo que seu ponto de vista ou comportamento não é legítimo o suficiente para ter um apoio real. Por exemplo, os apoiadores de ambos os lados do julgamento de Johnny Depp e Amber Heard alegaram que o suporte online para o outro era pelo menos um pouco composto de contas de bot. Mais do que nunca, não temos certeza se podemos confiar no que vemos na internet – e pessoas reais estão suportando o peso.

Para Danisha Carter, uma TikToker que compartilha comentários sociais, as especulações sobre se ela era ou não humana começaram quando ela tinha apenas 10.000 seguidores no TikTok. Os espectadores começaram a perguntar se ela era um andróide, acusando-a de emitir “vibrações de IA” e até pedindo que ela se filmasse fazendo um CAPTCHA. “Achei legal”, ela admitiu em uma video chamada.

“Tenho uma estética muito selecionada e específica”, diz ela. Isso inclui usar o mesmo enquadramento para todos os vídeos e, muitas vezes, as mesmas roupas e penteados. Danisha também tenta ser medido e objetivo em seus comentários, o que também deixa os espectadores desconfiados. “Os vídeos do TikTok da maioria das pessoas são casuais. Eles não são curados, são fotos de corpo inteiro, ou pelo menos você os vê se movendo e participando de atividades que não estão apenas sentadas na frente da câmera.

Depois que ela se tornou viral pela primeira vez, Nicole tentou responder a seus acusadores explicando sua alopecia e apontando qualidades humanas como suas marcas de bronzeamento devido ao uso de perucas. Os comentaristas não acreditaram.

“As pessoas vinham com teorias inteiras nos comentários, [elas] diziam: ‘Ei, olha só esse segundo. Você pode ver totalmente o vídeo falhando ”, diz ela. “Ou ‘você pode vê-la falhando’. E era tão engraçado porque eu ia lá e assistia e ficava tipo, ‘Do que diabos você está falando?’ Porque eu sei que sou real.”

Mas não há como Nicole provar isso, porque como alguém prova sua própria humanidade? Embora as ferramentas de IA tenham se acelerado exponencialmente, nosso melhor método para provar que alguém é quem diz ser ainda é algo rudimentar, como quando uma celebridade publica uma foto com uma placa escrita à mão – ou, espere, é ele, ou é é apenas um deepfake?

Enquanto desenvolvedores como o próprio OpenAI lançaram ferramentas “classificadoras” para detectar se um trecho de texto foi escrito por uma IA, qualquer avanço nas ferramentas CAPTCHA tem uma falha fatal: quanto mais pessoas usam computadores para provar que são humanos, mais inteligentes os computadores ficam. em imitá-los. Toda vez que uma pessoa faz um teste CAPTCHA, ela está contribuindo com um dado que o computador pode usar para aprender a fazer a mesma coisa. Em 2014, o Google descobriu que uma IA poderia resolver os CAPTCHAs mais complicados com 99% de precisão. Humanos? Apenas 33 por cento.

Assim, os engenheiros descartaram o texto em favor das imagens, pedindo aos humanos que identificassem objetos do mundo real em uma série de imagens. Você pode adivinhar o que aconteceu a seguir: os computadores aprenderam a identificar objetos do mundo real em uma série de imagens.

Estamos agora em uma era de CAPTCHA onipresente chamado “No CAPTCHA reCAPTCHA”, que é um teste invisível que é executado em segundo plano nos sites participantes e determina nossa humanidade com base em nosso próprio comportamento – algo que, eventualmente, os computadores também superarão.

Melanie Mitchell, cientista, professora e autora de Artificial Intelligence: A Guide for Thinking Humans, caracteriza a relação entre CAPTCHA e IA como uma “corrida armamentista” sem fim. Em vez de esperar por um teste de Turing on-line definitivo, Mitchell diz que esse push-and-pull será apenas um fato da vida. Falsas acusações de bots contra humanos se tornarão comuns – mais do que apenas uma situação online peculiar, mas um problema da vida real.

“Imagine se você é um estudante do ensino médio e entrega seu trabalho e o professor diz: ‘O detector de IA disse que isso foi escrito por um sistema de IA. Reprovado’”, diz Mitchell. “É quase um problema insolúvel apenas usando a tecnologia sozinha. Então, acho que terá que haver algum tipo de regulamentação legal e social dessas [ferramentas de IA].”

Essas águas tecnológicas turvas são exatamente o motivo pelo qual Danisha está satisfeita por seus seguidores serem tão céticos. Ela agora brinca com a paranóia e torna a natureza estranha de seus vídeos parte de sua marca.

“É muito importante que as pessoas vejam perfis como o meu e digam: ‘Isso é real?’”, diz ela. “‘Se isso não é real, quem está codificando? Quem está fazendo isso? Que incentivos eles têm?’”

Ou talvez seja exatamente isso que a IA chamada Danisha quer que você pense.

Fonte: The Verge/Kate Lindsay