Facebook alerta que não pode eliminar 100% de conteúdo tóxico
Joe Mayes e Stefan Nicola
18/06/2019 12h52
(Bloomberg) — O Facebook está sob pressão para eliminar discursos de ódio e notícias falsas, mas a empresa alerta que não pode construir uma plataforma impermeável à natureza humana.
"Este não é um problema totalmente solucionável", disse Carolyn Everson, vice-presidente de marketing da gigante de redes sociais, em um painel realizado na terça-feira no festival de publicidade Cannes Lions, no sul da França. "A humanidade tem algumas partes ruins, e as plataformas são um reflexo disso."
Veja também
Empresas de tecnologia como Facebook, Twitter e YouTube, controlado pelo Google, têm sido criticadas por não fazer o suficiente para evitar a propagação de discursos de ódio, propaganda terrorista e desinformação em suas plataformas.
No entanto, o Facebook está se mexendo: segundo a empresa, 2,2 bilhões de contas falsas foram bloqueadas apenas no primeiro trimestre. Everson disse que o Facebook tem uma equipe de 30 mil pessoas dedicadas à questão da segurança da plataforma, um número que se compara aos menos de três mil nesse grupo há dois anos. Agora, o Facebook bloqueia 99,8% do conteúdo terrorista antes de que seja visto por algum usuário e 65% do conteúdo de discurso de ódio, disse.
"É um jogo de gato e rato", disse Everson. "É um trabalho que não vai acabar nunca. Está em andamento."
Repórteres da matéria original: Joe Mayes em Londres, jmayes9@bloomberg.net;Stefan Nicola em Berlim, snicola2@bloomberg.net