IPCA
0,83 Abr.2024
Topo

Facebook revela suas políticas de eliminação de conteúdo

Sarah Frier

24/04/2018 10h49

(Bloomberg) -- Pela primeira vez, o Facebook está deixando que as pessoas saibam quais são suas regras específicas para retirar conteúdos que forem denunciados aos moderadores da rede social.

O documento de 27 páginas rege o comportamento de mais de 2 bilhões de usuários, com definições do Facebook sobre incitação ao ódio, ameaças violentas, exploração sexual e muito mais. É o mais próximo que o mundo chegou de ver um código de conduta internacional que havia sido promulgado a portas fechadas. O documento foi divulgado após críticas frequentes e confusões sobre as políticas da empresa.

Os padrões da comunidade soam como o resultado de anos de tentativas e erros e são usados para fornecer aos funcionários diretrizes suficientemente específicas para que eles tomem decisões rápidas e coerentes. Embora o close de um bumbum completamente nu não seja permitido, ele será autorizado se "tiverem feito o photoshop em uma pessoa pública". O conteúdo de uma fonte hackeada não é aceitável "exceto em casos limitados de noticiabilidade".

O Facebook publicou as políticas para ajudar as pessoas a entenderem os limites definidos pela empresa sobre questões com diferenças sutis, disse Monika Bickert, vice-presidente de gerenciamento de políticas globais, em publicação de blog. Pela primeira vez, a empresa dará às pessoas o direito de recorrer de suas decisões.

As políticas de conteúdo foram divulgadas poucos dias depois de o CEO, Mark Zuckerberg, prestar depoimento no Congresso dos EUA, onde enfrentou perguntas frequentes sobre as práticas da empresa. Entre outras coisas, os parlamentares perguntam se o Facebook derruba injustamente mais conteúdos dos conservadores do que dos liberais e por que conteúdos ruins - como perfis falsos e publicações para a venda de drogas opioides - permanecem, mesmo que tenham sido denunciados.

"A efetividade de nossas políticas depende da força e da precisão da aplicação de nossas normas - e nossa aplicação não é perfeita", disse Bickert. "Em alguns casos, cometemos erros porque nossas políticas não são suficientemente claras para nossos revisores de conteúdo. No entanto, também cometemos erros porque nossos processos envolvem pessoas, e as pessoas são falíveis."

A empresa tem 7.500 revisores de conteúdo, um aumento de 40 por cento em relação ao ano anterior, que trabalham em 40 idiomas. O Facebook também afirmou que está empenhado em aumentar o número de funcionários que falam distintos idiomas que exigem mais atenção. Mas, com 2,2 bilhões de usuários em todo o mundo, isso significa que cada revisor é responsável, em média, por uma base de usuários equivalente à população de Pittsburgh, Pensilvânia.

Em seu depoimento no Congresso, Zuckerberg prometeu que a aplicação de padrões melhoraria com a inteligência artificial. Esses sistemas, no entanto, são treinados por seres humanos e provavelmente também serão falíveis.

Agora que o Facebook publicou as políticas, a companhia está pedindo feedback para aprimorá-las. A empresa vai organizar uma série de eventos em todo o mundo para solicitar conselhos, a partir de maio.

"Nossos esforços para melhorar e aperfeiçoar os padrões de nossa comunidade dependem da participação e da contribuição de pessoas de todo o mundo", disse Bickert.