Comproban o mal funcionamento do sistema de control de contidos en Facebook
venres, 29 de decembro do 2017
- Imaxe denunciada en Facebook que non foi eliminada polos moderadores por considerar que non é ofensiva
Dende ProPublica decidiron pór a proba o sistema de control
de contidos de Facebook, para coñecer a fondo se a compañÃa de Mark Zuckerberg
está a tomar en serio a súa loita contra os discursos de odio e outros contidos
ofensivos que non deberÃan estar nunca ao alcance do público, constatando o que
todos temiamos: o
sistema de verificación é un completo desastre.
Como exemplo, denunciaron unha imaxe na que pode verse un cadáver xunto ao
texto «o único bo musulmán é o puto musulmán morto» para recibir como
contestación que non atoparan nada na imaxe que fose contra as normas de
Facebook. O mesmo acontece con comentarios como «morte aos musulmáns!!»
denunciados por numerosos usuarios, apoloxÃas da violación, comentarios racistas,
bromas sexistas... demostrando que o equipo de 7.500 revisores de contido que
actualmente ten Facebook non fan ben o seu traballo.
Non só constataron que nunha investigación realizada na que analizaron máis de
900 reclamacións a Facebook que a resposta era inconsistente (de xeito que os
revisores actúan de xeito diferente ante contidos semellantes), senón que quixeron
ser máis concretos, e colleron unha mostra de 49 elementos denunciados por
usuarios e que son claramente ofensivos, para que dende Facebook recoñeceran o
seu erro en 22 casos, en 19 considerasen que estaban dentro das normas da súa
comunidade (como, por exemplo, no caso de insultos racistas nos que non se incite
á violencia) e, en 6 casos, admitir que os contidos incumprÃan as normas pero
os revisores non os eliminaron por estar mal denunciados ou por seren
eliminados polos creadores. Nos 2 casos restantes recoñecen non ter información
dabondo para responder.
Justin Osofsky, vicepresidente de Facebook, pediu desculpas polos erros
cometidos e asegura que durante 2018 terán até 20.000 persoas encargándose
destas tarefas, polo que confÃan en poder cumprir mellor as súas normas.
O peor destes sistemas de moderación é que non só fallan moito á hora de entender
os discursos de odio, senón que tamén actúan no sentido contrario ao que
deberÃan, censurando contidos indebidos, como borrar unha publicación contra
unha marcha nazi precisamente por amosar a un neo-nazi na imaxe que a ilustra,
co conseguinte bloqueo do usuario durante varios dÃas, para logo pedir
desculpas ante as medidas mal aplicadas, dando a impresión de que os revisores
de contidos traballan a contra reloxo, sen chegar a entender os textos que
están a censurar.
Sobra dicir que as normas de Facebook son pouco claras e non existen unhas
pautas publicas para saber concretamente os contidos que aceptan ou rexeitan.