FRAUDE ELEITORAL?

Atualizado: Abr 9

Quando o presidente Jair Messias Bolsonaro afirmou que as eleições 2018 foram fraudadas, ele estava sendo honesto, mas com a Pós-Verdade, que ele dissemina por todo o tempo.


Antes de entrarmos no meu “tecnês” habitual, vamos fazer uma pausa para falar sobre quando começou, nos EUA, a prática da “Pós-Verdade” pela direita.


Em novembro de 1964, a Harper´s Magazine publicou um artigo de Richard Hofstadter, professor de história na Universidade Colúmbia: “The Paranoid Style in American Politicis” (O estilo paranoico na política americana). Além de ser o primeiro estudo sobre “Pós-Verdade”, esse ensaio permanece até hoje o texto básico para todos que estudam as teorias da conspiração modernas e seus impactos sobre as percepções da verdade.


O principal gancho de Hofstadter, foi uma distinção entre a paranoia dos conspiradores contemporâneos e o alarmismo daqueles que, nos séculos anteriores, apontaram suas armas contra: católicos, maçons e os Illuminati da Baviera, entre muitos outros. Vamos ao texto:


Os porta-vozes daqueles movimentos mais antigos sentiam que apoiavam causas e pessoas que ainda se encontravam em posse de seu país. Estavam se defendendo de ameaças a estilos de vida ainda estabelecidos. No entanto, a direita moderna [...] sente-se desapropriada: os Estados Unidos foram tirados largamente deles e de sua espécie, embora estejam determinados a tentar retomar a sua posse e impedir o ato de subversão final de destrutivo.


Para “Tornar a América Novamente Grande”, os conspiradores da época, além de anticomunistas e herdeiros diretos de McCarthy, se acreditavam engajados numa luta milenarista, que determinaria muito mais que o destino de uma única nação, como demonstra o texto:


O porta-voz paranoico enxerga o destino da conspiração em termos apocalípticos – ele trafica com o nascimento e a morte de todos os mundos, de todas as ordens políticas, de todos os sistemas de valores humanos. Está sempre erguendo as barricadas da civilização. Vive constantemente em um ponto de inflexão. Como os milenaristas religiosos, expressa a ansiedade daqueles que estão vivendo os últimos dias e, às vezes, tende a fixar uma data para o apocalipse.


O método da direita alternativa, da qual Bolsonaro faz parte (como baixíssima patente), não tem nada de novo, pelo contrário. A diferença é que a Pós-Verdade, com a internet dando alcance a estas teorias de conspiração, trazem audiência e atingem uma plateia abaixo do nível limítrofe da escala de classificação Davis Wechsler. E o problema é que na internet, ao contrario da televisão, eles falam entre si, sendo numerosos, como disse Nelson Rodrigues, e não tendo limites nas opiniões, como disse Umberto Eco.


As eleições fraudadas são uma mensagem “fácil” para a récua bolsonarista, sobre os inimigos controlarem o sistema eleitoral (mesmo ele tendo sido eleito). Sendo que a palavra do totem não precisa comprovação factual nem provas científicas, é simplesmente a Pós-Verdade que os milicianos limítrofes, recalcados e inexitosos querem acreditar. Sua vitimização vociferada publicamente é facilmente comprovada por um teste de Rosenzweig.


Mas o que vocês desconhecem é que as eleições de 2018 foram realmente fraudadas, mas não segundo o conceito de Pós-Verdade da direita alternativa, mas segundo um estudo científico sério.


Em um material público da Diretoria de Análise de Políticas Públicas da Fundação Getulio Vargas (FGV/DAPP), revelou-se que perfis automatizados comandavam os debates no Twitter em situações de influência na política brasileira desde as eleições de 2014. Contas automatizadas que permitem a massificação de postagens foram usadas como ferramenta para a manipulação de debates nas redes sociais, em especial em momentos de campanha política. Com isso, o mundo virtual permitiu a adaptação de velhas estratégias políticas de difamação e manipulação de debates públicos, agora em maior escala, sob o espectro da Pós-Verdade.


Na greve geral de, ocorrida em abril de 2017, mais de 20% das ações ocorridas no Twitter entre os usuários a favor da greve foram motivadas por esses tipos de contas automatizadas. Nas eleições presidenciais de 2014, os robôs foram responsáveis por mais de 10% do debate.


Identificar e mapear a presença destes robôs e os debates que criam é de sublime importância para diferenciar quais situações são reais e quais são manipuladas no ambiente virtual. Apenas assim é possível ter compreensão real dos processos sociais originados nas redes e seu alcance em conduzir uma democracia ciborgue.


A pesquisa da FGV/DAPP nos deu um alerta de que não estamos imunes, e que devemos buscar entender, filtrar e denunciar o uso e a disseminação de informações falsas ou manipulativas por meio desse tipo de estratégia e tecnologia. É importante ter atenção e proteger os espaços democráticos nas redes sociais da Pós-Verdade da direita alternativa.


Imaginem que nas eleições 2018, as contas do Twitter, relacionadas aos Bolsonaro em análise piramidal, ligando seguidores, curtidas, retuítes e comentários já superavam a população brasileira numericamente. Ou seja, os “cabos eleitorais” bolsonaristas já eram mais numerosos que a própria população brasileira da época. Mesmo que não sejam todos os brasileiros que utilizam o Twitter, o efeito dominó do boca a boca no mundo real, as ações em outras redes sociais como Whatsapp, do Instagram e Facebook, só para falar das relevantes, criou-se uma máquina eleitoral que, transformou um militar reformado medíocre e um político tão inexpressivo, quanto medíocre, no presidente eleito. Claro que tanto a repulsão magnética pelo lulopetismo, quanto uma comoção pelo atentado a sua vida reforçaram ainda mais a Pós-Verdade utilizada nas redes sócias por esta direita alternativa.


Mas o fato é que as eleições 2018 realmente foram fraudadas com o uso da Pós-Verdade por automação no Twitter e em outras redes sociais e não no sistema eleitoral brasileiro. O grande beneficiário da Fraude foi o mesmo homem que afirmou que foram fraudadas, pois ele sabia, somente usou a Pós-Verdade como mensagem para seu gado para atacar a justiça eleitoral.


Vamos falar um pouco sobre robôs, redes sociais e política no Brasil.


Meio de comunicação, informação e construção de conexões, as redes sociais são parte cada vez mais significativa do dia a dia das pessoas. Estudos do Pew Research Center mostram que a maioria dos adultos nos Estados Unidos (62%) se informa por meio das redes sociais. Porém 64% afirmam que as Fake News que circulam nas redes causam “confusão” sobre fatos e acontecimentos diários. No Brasil, uma pesquisa, realizada pela Secretaria Especial de Comunicação Social (Secom) da Presidência da República em 2016, revelou que 49% das pessoas já se informam pela internet, uma fatia em rápido crescimento. É nesse ambiente de “confiança”, mas de alta circulação de informações duvidosas que os robôs se proliferam.


As contas automatizadas podem até contribuir positivamente em alguns aspectos da vida cotidiana nas redes sociais. Os chatbots (chats operados por robôs) ajudam no atendimento a clientes de empresas. Mas, o número crescente de robôs atua na verdade com fins maliciosos.


Os robôs sociais (social bots) são contas controladas por software que geram artificialmente conteúdo e estabelecem interações com não robôs. Eles buscam imitar o comportamento humano e se passar como tal de maneira a interferir em debates espontâneos e criar discussões forjadas. Estes robôs são controlados por empresas de marketing digital, a maioria delas das regiões sul e sudeste do Brasil, a serviço de clientes ocultos. Em alguns casos as empresas foram até criadas pelos próprios “clientes”, como fachada, só para estas finalidades.


Fazendo esta manipulação, os robôs criam a falsa sensação de amplo apoio político a certa proposta, ideia ou aos Bolsonaro, modificam o rumo de políticas públicas, interferem no mercado de ações, disseminam rumores, notícias falsas e teorias conspiratórias, geram desinformação e poluição de conteúdo, além de atrair usuários para links maliciosos que roubam dados pessoais, entre outros riscos. E tem muita gente ganhando dinheiro com isso, inclusive especulares no mercado de capitais, tanto por aqui, quanto nos EUA, China e Rússia, inclusive com milicianos digitais brasileiros sendo funcionários e proprietários de empresas que operam no mercado financeiro em outros países.


Simultaneamente as redes sociais se tornaram parte completa não apenas da vida pessoal dos brasileiros, mas da sua atividade política e da atuação dos seus representantes. Os partidos e demais movimentos de representação social também aproveitam o espaço para engajar milicianos assim como para atacar opositores e pautar debates em torno de seus interesses. Nesse caso, é comum observar o uso orquestrado de redes de robôs (botnets) para gerar um movimento em determinado momento, manipulando trending topics (também hashtags) e o debate em geral.


Este método tem sido identificado em grandes eventos da política internacional, como as eleições americanas de 2010, a eleição de Donald Trump em 2016 e o plebiscito de saída do Reino Unido da União Europeia, o Brexit. No Brasil, o cenário não é diferente: ações orquestradas de robôs ocorreram em momentos-chave da política nacional, como a aprovação da Reforma Trabalhista, a greve geral de 2017, as eleições de 2014, o debate sobre o Impeachment e a eleição municipal de São Paulo em 2016 e nas eleições 2018, colocando na presidência uma figura completamente insipiente, despreparada e mal intencionada, como o Jair Messias Bolsonaro. Também vários políticos similares foram eleitos no mesmo efeito de manada.


O modus operandi dos robôs na disseminação da Pós-Verdade e eleições


Comandando debates em andamento nas redes sociais, os robôs estão atingindo diretamente os processos políticos e democráticos através da influência da opinião pública. Sua ação produz uma opinião artificial, ou dimensão de Pós-Verdade da determinada opinião ou figura pública, ao compartilhar versões de determinado tema, que se espalham na rede como se houvesse, dentre a parcela da sociedade ali representada, uma opinião muito forte sobre determinado assunto. Isso acontece com o compartilhamento coordenado de certa opinião, dando a ela um volume irreal e, consequentemente, influenciando os usuários indecisos e de QI limítrofes, sobre o tema e fortalecendo os usuários mais radicais, no debate orgânico, dada à localização mais frequente dos robôs no debate político.


Os perfis automatizados também promovem a desinformação com a propagação de Fake News e campanhas de poluição da rede. Robôs frequentemente usam as redes sociais para reproduzir Pós-Verdades com o objetivo de influenciar determinada opinião sobre uma pessoa ou tema, ou poluir o debate com informações reais, porém irrelevantes para a discussão em questão. Esta ação, que conta com o compartilhamento de links como principal mecanismo de propagação, tenta evitar ou diminuir o peso do debate sobre determinado assunto. Para isso, os robôs geram um número enorme de informações, que chegam até os usuários simultaneamente às informações reais e relevantes, que acabam tendo seu impacto diminuído. Assim, a atuação de robôs não apenas dissemina notícias falsas, que podem ter efeitos nocivos para a sociedade, mas também busca ativamente impedir que os usuários se informem de maneira adequada.


Outra tática muito comum dos perfis automatizados é o compartilhamento de links maliciosos, que tem como fim o roubo de dados ou informações pessoais. Essas informações podem ser usadas para a criação de novos perfis robôs que tenham características que auxiliem estes robôs a iniciarem conexões nas redes com usuários reais, como fotos de perfil. Uma ação comum e que costuma gerar suspeita sobre a atuação de robôs é a marcação por parte de um usuário desconhecido em um link reduzido, sem identificação clara do seu conteúdo. Esses links podem também, além de roubar informações pessoais para uso na própria rede social, direcionar o usuário para notícias falsas ou sites que usarão o número de acessos para ampliar sua influência na rede.


Foram detectadas muitas ações de robôs com o objetivo de manipular o mercado de ações. Isso ocorre quando redes de robôs são colocadas em funcionamento para gerar conversas que envolvam de maneira positiva determinada empresa ou tema, manipulando, assim, os sistemas das corretoras de acompanhamento do debate nas redes. Desta forma, ações em questão podem ser valorizadas com base em um otimismo forjado pela ação de robôs. Como muitos dos financiadores da direita alternativa são do mercado de capitais, empresas de consultoria, profissionais autônomos, máfias internacionais e até investidores diretamente ligados as operações automatizadas de Pós-Verdade.


Um caso famoso deste tipo de ação envolveu um debate gerado por robôs nas redes com relação a uma empresa de tecnologia chamada Cync . Os algoritmos automáticos de compra e venda de ações identificaram esse debate e começaram a fazer transações com ações da empresa, cujo valor de mercado aumentou 200 vezes, chegando aos 5 bilhões de dólares. Quando corretores de ações identificaram que era uma ação orquestrada e automatizada, as perdas já eram grandes. Este tipo de ação mostra outro potencial disruptivo dos perfis automatizados, dessa vez para a economia, podendo gerar impactos que transbordam também para os debates políticos. Este tipo de atuação sugere que as redes sociais, usadas por tantas pessoas para fins de informação, podem estar na verdade contribuindo para uma sociedade menos informada, manipulando o debate público e determinando de maneira consistente os rumos do país, inclusive economicamente.


Como funcionam os robôs sem falar em “tecnês”


Os robôs são usados nas redes sociais para propagar informações falsas, maliciosas, ou gerar um debate artificial. Para isso, precisam ter o maior número possível de seguidores. Mas como um perfil automatizado pode criar uma rede em torno de si?

As automações têm maior facilidade de propagação no Twitter do que no Facebook por uma série de motivos. O padrão de texto do Twitter (140 caracteres) gera uma limitação de comunicação que facilita a imitação da ação humana. Além disso, o uso de @ para marcar usuários, mesmo que estes não estejam conectados a sua conta na rede, permite que os robôs marquem pessoas reais aleatoriamente para inserir um fator que se assemelhe a interações humanas. Vide um exemplo famoso: https://twitter.com/Jouberth19, conhecido entre os MAV humanos como “cabeça de bacalhau”, ninguém o conhece pessoalmente e é seguido diretamente pelos dois filhos carecas do presidente e comanda a hashtags bolsonaristas, eu o chamo de “Rei do Gado”.


Os robôs também se valem do fato de que, geralmente, as pessoas são pouco criteriosas ao seguir um perfil no Twitter, e costumam agir de maneira recíproca (SDV) quando recebem um novo seguidor. Experimentos mostram que no Facebook, plataforma na qual as pessoas costumam ser um pouco mais cuidadosas ao aceitar novos amigos, 20% dos usuários reais aceitam pedidos de amizade de maneira indiscriminada, e 60% aceitam sempre que possuem ao menos um amigo em comum. Dessa maneira, os robôs adicionam um grande número de pessoas ao mesmo tempo e seguem páginas reais de pessoas famosas, além de seguir e serem seguidos por um grande número de robôs, de forma que acabam criando comunidades mistas – que incluem perfis reais e falsos. E a conivência do Twitter, com estas práticas é visível.


Alguns robôs funcionam apenas desviar a atenção para um determinado tópico e, por isso, se preocupam menos com a sua similaridade com um usuário humano do que com a intensidade e a capacidade de modificar o rumo do debate nas redes. Outros mecanismos, no entanto, possuem uma série de estratégias para imitar o comportamento humano e, assim, serem reconhecidos como tal tanto por usuários e por sistemas de detecção. É o uso de ferramentas de AI na retaguarda, de modo como utilizo um BI na retaguarda do meu robô de pesquisas MAV.


Sabendo que o comportamento humano nas redes sociais tem algum padrão temporal na produção e no consumo de conteúdo, os perfis são programados para postar de acordo com essas mesmas regras. Paradoxalmente, é justamente a falta de padrão tanto temporal quanto de conteúdo no longo prazo que os robôs têm mais dificuldade de imitar, e o que costuma permitir a sua identificação. Os algoritmos mais modernos vão além: conseguem identificar perfis populares e segui-los, identificar um assunto sendo tratado na rede e gerar um pequeno texto por meio de programas de processamento de linguagem natural (natural language algorithms) e gerar certo grau de interação. Mais AI sendo utilizada na manipulação virtual.


Há como identificar os robôs?


Se o Twitter bloqueasse as suas APIs para serem instanciadas por web services não autorizados comercialmente (contratualmente) tudo se resolveria facilmente, porém, por alguma razão isso não ocorre (talvez por serem clientes ou anunciantes), deixando alternativas “post factum”, então vamos continuar seguindo a linha menos eficiente da FGV DAPP.


Não há uma propriedade única que indique realmente se determinado perfil pertence a um usuário real ou falso, automatizado. A identificação é resultado da composição de múltiplas características e indicadores inter-relacionados. As pesquisas nesse campo se distribuem entre três principais linhas de métodos: a) a partir de informações disponíveis nas próprias redes sociais; b) sistemas baseados em contribuição colaborativa (crowdsourcing) e inteligência humana para identificar os perfis de robôs; e c) através de aprendizado de máquinas (machine-learning), baseado na identificação de determinadas características que permitem a automatização da diferenciação entre robôs e pessoas.


Há diferentes hipóteses que podem ser usadas para embasar a busca por robôs nas redes. Com o método que utiliza conexões entre perfis e dados disponíveis sobre o comportamento na rede social como fórmula de identificação de robôs, alguns sistemas assumem que estes perfis automatizados estarão primordialmente ligados a perfis semelhantes, especialmente no início da sua vida digital. Isso porque eles precisam construir uma base de seguidores para parecerem críveis aos olhos dos usuários reais. É basicamente esta linha que o meu robô “caça MAV” funciona. Começa no topo da pirâmide, com os Bolsonaro, e vai descendo seguidores de seguidores continuamente (por isso cheguei a mais 280 milhões de perfis bolsonaristas), catalogando suas relações entre contas.


O método, no entanto, precisa ser ponderado pelo fato de que usuários humanos são pouco criteriosos com relação a interações e amizades com contas desconhecidas, em especial no Twitter. Com isso, após certo tempo de existência, as contas de robôs terão redes mistas, não primordialmente compostas por robôs ou por humanos. O volume de robôs dentre os amigos do perfil, contudo, pode ser um indicativo de sua natureza. Mas dentro do objetivo fim, para o qual meu robô foi desenvolvido, caças MAV não importa se automatizado ou não, eu consegui pelo menos as métricas dos volumes envolvidos com o bolsonarismo. Também sei quem são eles e o que fazem.


O método de crowdsourcing parte do princípio que a detecção de robôs seria simples para seres humanos, cuja capacidade de compreensão e identificação do próprio comportamento ainda não foi equiparada por máquinas. Um teste realizado por Wang et al chegou à conclusão que, em um mecanismo de treinamento curto de identificação (apenas mostrando exemplos de perfis reais e falsos) e respeitando a decisão da maioria dentro de um pequeno grupo de voluntários, o número de falsos-positivos foi bem próximo a zero. Infelizmente este método precisa de muito investimento em hardware, software e peopleware. É inviável economicamente.


A detecção através de aprendizado de máquinas (AI) ocorre com a codificação de padrões de comportamento a partir da coleta de Big data. Desta forma, os sistemas são capazes de identificar, automaticamente, humanos e robôs com base no padrão comportamental do perfil. Estes sistemas normalmente se organizam a partir de uma base de dados nas quais humanos e robôs já foram previamente diferenciados. Porém como os usuários humanos bolsonaristas têm comportamentos miméticos já ensinados e coordenados pelas mesmas “forças ocultas” que controlam os robôs, é pouco eficiente também.


Os mecanismos mais eficientes de identificação combinam diferentes aspectos dessas abordagens, explorando múltiplas dimensões do comportamento do perfil, como atividade e padrão de horário. Estes sistemas levam em conta, por exemplo, que usuários reais passam mais tempo na rede trocando mensagens e visitando o conteúdo de outros usuários, como fotos e vídeos, enquanto contas robôs passam o tempo pesquisando perfis e enviando solicitações de amizade. Porém a mesma ressalva anterior vale, os robôs e humanos MAV têm comportamento mimetizado por seus gurus e capitães. É uma estratégia muito bem articulada pela sabedoria milenar chinesa, pelos hackers russos e pela Alt-Right norte-americana.


Nesse caminho, as pesquisas concluem que as atividades das contas robôs tendem a ser menos complexas na variedade de ações que praticam; fato que adiciona mais uma possibilidade à combinação de fatores que permite que se afirme categoricamente que um determinado perfil é um robô. Esse tipo de sistema, por combinar diferentes dados, também obtém bons resultados a partir de um número menor de informações – como os 100 últimos tweets –, o que acelera a análise e a capacidade de processamento. Mas novamente esbarramos no mimetismo dos MAV que têm comando centralizado, mas distribuído em n grupos fechados em modelo virótico.


Estudos sobre detecção de robôs em redes sociais se inspiram no esforço para detecção e bloqueio de spams em sistemas de mensagem eletrônica. Nesse sentido, também estão presentes a análise de links compartilhados para identificar fazendas de links (empresas que administram robôs e vendem curtidas, retuítes, etc) e dinâmicas de interações.


Como o Twitter não coloca um cadeado nas portas das APIs, somente realizando análises dos processos estatísticos que descrevem as interações entre usuários, diversos fatores podem ser estudados e combinados para desenvolver um modelo de detecção de robôs em redes sociais.


Alguns exemplos são:


•Variedade de ações enquanto conectados na rede;


•Características do usuário, considerando o número de amigos (as pessoas reais possuem, em média, entre 100 e 1000 seguidores), a proporção e a correlação entre perfis seguidos e perfis que seguem o usuário;


•Características das amizades, analisando como os usuários daquela rede estão interagindo entre si, incluindo padrões relacionados a linguagem, popularidade e horário nos locais de interação;


•Características da rede de retuítes, menções e repetição de hashtags;


•Características temporais, como o tempo médio de produção de tweets;


•Características de conteúdo e linguagem;


•Características do sentimento expressado por meio da postagem.


Infelizmente a conivência das redes sócias, especialmente o Twitter, que tem em seu CEO fundador alguém envolvido também com Criptomoedas, o valor “em espécie” destes tipos de serviços para empresas de marketing digital e hackers, os cadeados não são colocados nas portas pelas quais as automações MAV entram na rede para trabalhar.


Fontes:


Site Estocástico www.estocastico.net

FGV – DAPP http://dapp.fgv.br/

Livro Pós-Verdade – Matthew D’Ancona

Livro Política, Ideologia e Conspirações – Gary Allen e Larry Abraham

Copyright © 2020 de Jair Lorenzetti Filho. Todos os direitos reservados. Este site ou qualquer parte dele não pode ser reproduzido ou usado de forma alguma sem autorização expressa, por escrito, do autor.

Copyright © 2020 de Jair Lorenzetti Filho. Todos os direitos reservados. Este site ou qualquer parte dele não pode ser reproduzido ou usado de forma alguma sem autorização expressa, por escrito, do autor.