IPCA
0,83 Mar.2024
Topo

Marcas correm riscos na guerra entre reputação e desinformação

Getty Images/iStockphoto
Imagem: Getty Images/iStockphoto

15/06/2020 04h01

As polêmicas sobre "fake news" e diferentes estratégias de desinformação têm ocupado o noticiário quase todos os dias. Mas há algo novo nesse cenário. Estamos acostumados a restringir o problema da desinformação ao campo da política. Acontecimentos recentes, porém, nos mostram que seus desdobramentos vão muito além da política —e têm impacto negativo em todos os setores da sociedade.

Os "social bots" (robôs que atuam nas redes sociais e que se passam por humanos) atacam as marcas naquilo que lhe é vital (a imagem pública) e levam uma campanha de difamação aos tópicos mais comentados do Twitter em poucos minutos. Ataques consistentes e campanhas permanentes contra empresas, efetuadas por bots, podem afetar sua imagem e intimidar marcas a se manifestarem sobre temas caros à sociedade.

O conceito de "desinformação" se refere a todas as formas de informações falsas, imprecisas, deturpadas e manipuladas, descontextualizadas ou enganosas que sejam apresentadas, disseminadas ou promovidas intencionalmente, e que causem danos públicos e de reputação — definição dada pelo Grupo de Peritos da Comissão Europeia sobre Notícias Falsas e Desinformação Online. Também precisamos incluir nesse guarda-chuva conceitual os agentes de desinformação: os 'bots' (robôs), 'trolls' (agressores), seus mandantes e financiadores.

Investimento via mídia programática

Mas como a desinformação é financiada? Segundo o Global Disinformation Index (GDI), com base em uma amostra de 20.000 sites de fake news (segundo a PolitiFact, agencia de fact-checking nos EUA), as empresas gastaram mais de R$ 1 bilhão em 2019 exibindo anúncios nesses sites por meio de mídia programática nos EUA, dinheiro que monetiza outras campanhas de desinformação na rede.

Mídia programática é a prática de usar softwares para comprar e vender espaço publicitário na web. A técnica automatiza e viabiliza a personalização da publicidade online, porém desconsidera, na maioria dos casos, o conteúdo dos sites nos quais se anuncia.

Ao focar apenas na micro-segmentação dos públicos, os algoritmos podem alocar os anúncios em ambientes potencialmente hostis à reputação das marcas. Fazendo uma analogia, seria como um motorista de aplicativo calcular o caminho mais rápido com celular sem atentar se a rota pode levar seu passageiro para uma área de risco. Ou seja, a inteligência artificial é capaz de aumentar a eficácia de um anúncio em relação a seu público, mas ignora o contexto da propaganda comprometendo o seu próprio sentido.

Vigilância "acordou" marcas

A recente chegada do movimento Sleeping Giant ao Brasil, onde marcas são "avisadas" que seus anúncios online são associados à desinformação e ao discurso de ódio, fizeram com que as empresas envolvidas se posicionassem publicamente.

A vigilância dos consumidores nas redes sociais, que cobrou das empresas uma posição sobre o conteúdo dos sites em que anunciam, fez com que várias marcas fossem arrastadas para o debate político em torno das fake news. Ao se posicionarem contra o conteúdo duvidoso e tóxico desses sites, agentes de desinformação foram acionados (social bots e trolls) e começaram a atacar estas empresas na rede.

O Netlab, laboratório de estudo de redes da UFRJ, tem pesquisado o impacto da desinformação na reputação das instituições desde 2017, identificando a orquestração de campanhas de desinformação online contra marcas em diferentes contextos. Nas últimas semanas, em parceria com a Twist (start-up de Data Science do parque tecnológico da UFRJ), o NetLab monitorou as conversas sobre o Sleeping Giant e os ataques contra as empresas que se posicionaram e retiraram seus anúncios de páginas de fake news.

30% dos perfis são automatizados

Usamos o software Gotcha baseado em inteligência artificial, desenvolvido pela Twist e o NetLab, para identificação de bots. Em uma amostra probabilística de 1% das postagens de todo o Twitter, composta por cerca de 800 mil tuítes e 100 mil contas, encontramos um resultado surpreendente: identificamos que cerca de 30% de todas as contas que postaram sobre o assunto eram automatizadas.

Esses 30 mil perfis conseguiram levar algumas hashtags de boicote às marcas, como #nãocompredell e #brastempapoiaocomunismo, para os trending topics. Fazendo a projeção da amostra probabilística, supomos que o volume de postagem seja 100 vezes maior, o que pode causar um dano substancial a imagem das empresas envolvidas.

Há espaço para neutralidade?

Esse fenômeno nos mostra que a política se tornou uma espécie de buraco negro no centro da esfera pública. A analogia é ousada, mas pode ajudar a compreender o fenômeno social que estamos presenciando.

Segundo a teoria de Albert Einstein, o buraco negro possui um campo gravitacional tão intenso que dele nada pode escapar. Do mesmo modo, o cenário político ganhou um peso, uma centralidade e uma carga moral tão grande na sociedade que passou a funcionar como um campo semântico de significância e subjetivação, para o qual tudo é arrastado.

No campo magnético do "buraco negro social", tudo ganha um sentido político e é altamente polarizado, não havendo espaço para a neutralidade. Quem for neutro perde força simbólica, porque nas redes a reputação não é medida pela falta de inimigos, mas pela ausência de um exército de apoiadores pronto para defender —e contra-atacar.