PUBLICIDADE
IPCA
0,64 Set.2020
Topo

Twitter é 'lugar tóxico para as mulheres': Anistia Internacional

Dina Bass

18/12/2018 11h42

(Bloomberg) -- As mulheres têm dito ao Twitter há anos que sofrem muito abuso na plataforma. Um novo estudo realizado pela organização de defesa dos direitos humanos Anistia Internacional tenta avaliar exatamente o quanto.

Muito, na verdade. Cerca de 7 por cento dos tweets que mulheres proeminentes do governo e do jornalismo recebem foram considerados abusivos ou problemáticos. As mulheres negras foram 84 por cento mais propensas do que as mulheres brancas a serem mencionadas em tweets problemáticos.

Depois de uma análise que incluiu quase 15 milhões de tweets, a Anistia Internacional divulgou os resultados e, em seu relatório, descreveu o Twitter como um "lugar tóxico para as mulheres". A organização, que talvez seja mais conhecida por seus esforços para libertar prisioneiros políticos internacionais, voltou sua atenção para as empresas de tecnologia recentemente e pediu que a rede social "disponibilize dados significativos e abrangentes sobre a escala e a natureza do abuso em sua plataforma, bem como sobre o modo em que o problema está sendo abordado".

"O Twitter se comprometeu publicamente a melhorar a saúde coletiva, a abertura e a civilidade da conversação pública em nosso serviço", disse Vijaya Gadde, chefe de departamento jurídico e de política, confiança e segurança do Twitter, em um comunicado em resposta ao relatório. "A saúde do Twitter é medida pela forma como ajudamos a incentivar um debate mais saudável, conversas e pensamento crítico. Por outro lado, o abuso, a automação maliciosa e a manipulação prejudicam a saúde do Twitter. Estamos comprometidos a nos manter publicamente responsáveis pelo progresso nesse sentido."

Juntamente com a startup de inteligência artificial Element AI, que tem sede em Montreal, o projeto chamado "Troll Patrol" começou analisando tweets dirigidos a quase 800 mulheres jornalistas e políticas dos EUA e do Reino Unido. Mais de 6.500 voluntários analisaram 288.000 posts e rotularam os que continham palavras abusivas ou problemáticas ("conteúdo ofensivo ou hostil" que não necessariamente chega a ser abuso). Cada tweet foi analisado por três pessoas, de acordo com Julien Cornebise, que administra o escritório da Element em Londres, e especialistas em violência e abuso contra as mulheres também verificaram a classificação feita pelos voluntários.

O projeto também teve como objetivo usar essas considerações feitas por seres humanos para elaborar e testar um algoritmo de aprendizagem de máquina capaz de identificar abuso - em teoria, o tipo de coisa que uma rede social como o Twitter poderia usar para proteger seus usuários. A equipe de Cornebise usou a aprendizagem de máquina para extrapolar a análise gerada por seres humanos para um conjunto de 14,5 milhões de tweets que mencionam as mesmas personalidades. Eles também asseguraram que os tweets examinados pelos voluntários fossem representativos e que as conclusões fossem exatas.

Em seguida, sua equipe usou os dados criados para treinar um algoritmo de detecção de abuso e comparou as conclusões do algoritmo com as dos voluntários e especialistas. Esse tipo de trabalho está se tornando cada vez mais importante à medida que empresas como Facebook e YouTube usam a aprendizagem de máquina para identificar conteúdo que precisa de moderação. Em uma carta em resposta ao relatório da Anistia Internacional, o Twitter afirmou que a aprendizagem de máquina é "uma das áreas de maior potencial para lidar com usuários abusivos", afirmou o grupo no relatório.