A proliferação de vídeos impróprios no Facebook, com situações de abuso, intolerância, discurso de ódio e até suicídio, é um problema com o qual a rede social vem lidando – ou, pelo menos, tentando – há algum tempo.
E a única solução encontrada pela companhia é intensificar os esforços de moderação, com a contratação de três mil novos funcionários para seu time de operações.
Hoje, são 3,5 mil pessoas nessa função. Com as contratações, a equipe passará a sete mil até o final de 2017. A ideia é agir cada vez mais rápido com relação a conteúdos irregulares, aumentando o atendimento a denúncias feitas pelos usuários e também contendo os compartilhamentos.
De acordo com a empresa, o objetivo final é uma comunidade mais segura.
É uma mudança em relação à maneira com a qual o Facebook vinha lidando com o problema, confiando mais em algoritmos e sistemas automatizados para realizar a moderação.
Tais ferramentas, apesar de eficazes em muitos casos, também levavam a falsos positivos e a uma permissividade em alguns casos, com os usuários recebendo avisos de que o conteúdo não infringia normas quando ele, claramente, era impróprio.
A situação escalou nas últimas duas semanas, quando foram registrados pelo menos três casos de suicídio transmitidos ao vivo na plataforma. Em todas as situações, as cenas acumularam milhares de visualizações e permaneceram no ar por algumas horas, enquanto eram compartilhadas ativamente.
Até mesmo autoridades locais acabaram envolvidas e a noção é de que o Facebook não agiu rápido o bastante e mostrou despreparo.
Há quem diga, entretanto, que mesmo os sete mil moderadores serão pouco para conter o problema. São milhões de conteúdos diferentes sendo compartilhados todos os dias no Facebook e a rede social já conta com quase dois bilhões de usuários em todo o mundo, nas palavras do próprio Mark Zuckerberg.
É uma massa de gente que gera milhões de denúncias semanais.
Para dar conta de todo esse volume, o fundador da rede social disse que, além das contratações, a empresa também está trabalhando em sistemas de denúncia mais simples, que facilitem a indicação de conteúdos impróprios e também sua moderação.
O contato com as autoridades também deve ser intensificado para que os casos identificados possam ser investigados com mais facilidade.
Ao lado da preocupação com a moderação de conteúdo, o Facebook também está fortalecendo seus trabalhos relacionados à proliferação de informações falsas.
Algoritmos e sistemas de previsão já começaram a trabalhar para impedir que as tais “fake news” sejam espalhadas pela rede social, enquanto mudanças de layout para exibição de links relacionados facilitam a verificação, pelos usuários, de diferentes pontos de vista ou fontes mais confiáveis.
// CanalTech