PUBLICIDADE
IPCA
0,64 Set.2020
Topo

Facebook diz que software para controle de vídeos vai demorar

Jeremy Kahn

17/05/2019 12h40

(Bloomberg) — O diretor de inteligência artificial do Facebook, Yann LeCun, disse que a empresa ainda vai demorar muito para ter um software que automaticamente monitore vídeos ao vivo de conteúdo violento.

Os comentários fazem referência à transmissão ao vivo em março do tiroteio na mesquita de Christchurch, na Nova Zelândia.

"Esse problema está muito longe de ser resolvido", disse LeCun na sexta-feira, durante uma palestra no laboratório de pesquisa de inteligência artificial do Facebook, em Paris.

A rede social foi criticada por permitir que o agressor de Christchurch transmitisse o tiroteio ao vivo sem supervisão adequada, o que poderia ter permitido que o vídeo fosse retirado mais rapidamente da plataforma. O Facebook também teria demorado para impedir que outros usuários postassem novamente as imagens do agressor.

LeCun disse que transmissões ao vivo de conteúdo violento apresentaram numerosos problemas para sistemas automatizados, em particular devido ao áudio perturbador que acompanha vídeos de violência extrema, como tiroteios ou decapitações. Um sistema precisa ser treinado tanto em imagem quanto em som, explicou, e provavelmente teria que incorporar informações sobre o indivíduo postando o vídeo e o conteúdo publicado recentemente.

Outro problema é que não havia dados suficientes para treinar um sistema de inteligência artificial para detectar com segurança esses vídeos. "Felizmente, não temos muitos exemplos de pessoas de verdade atirando em outras pessoas", disse.

Mesmo com muitos exemplos de filmes de violência simulada que poderiam ser usados para o treinamento do software, LeCun disse que um sistema teria dificuldade em diferenciar entre violência real e filmes de ação e bloquearia ambos - mesmo que a postagem de um filme seja permitida.

Jerome Pesenti, vice-presidente de inteligência artificial do Facebook, disse que o objetivo da empresa é usar uma combinação de analistas humanos e sistemas automatizados para remover conteúdo proibido - como vídeos de violência extrema - o mais rápido possível.

Mas Pesenti explicou que, se o software automatizado nunca tivesse encontrado um vídeo violento antes e sua confiança em classificar o conteúdo como proibido fosse baixa, um revisor humano teria que filtrar o vídeo e tomar uma decisão.

O Facebook avançou em sua capacidade de detectar e bloquear automaticamente determinadas subcategorias de conteúdo extremista, disse a empresa, e agora pode identificar e bloquear a publicação de 99% de conteúdo relacionado ao grupo terrorista Al-Qaeda.

Mas detectar e bloquear todo tipo de conteúdo extremista - independentemente da origem - é um "problema muito difícil", disse LeCun.