Comproban o mal funcionamento do sistema de control de contidos en Facebook

venres, 29 de decembro do 2017 Marcus Fernández

Imaxe denunciada en Facebook que non foi eliminada polos moderadores por considerar que non é ofensiva

Dende ProPublica decidiron pór a proba o sistema de control de contidos de Facebook, para coñecer a fondo se a compañía de Mark Zuckerberg está a tomar en serio a súa loita contra os discursos de odio e outros contidos ofensivos que non deberían estar nunca ao alcance do público, constatando o que todos temiamos: o sistema de verificación é un completo desastre.
Como exemplo, denunciaron unha imaxe na que pode verse un cadáver xunto ao texto «o único bo musulmán é o puto musulmán morto» para recibir como contestación que non atoparan nada na imaxe que fose contra as normas de Facebook. O mesmo acontece con comentarios como «morte aos musulmáns!!» denunciados por numerosos usuarios, apoloxías da violación, comentarios racistas, bromas sexistas... demostrando que o equipo de 7.500 revisores de contido que actualmente ten Facebook non fan ben o seu traballo.
Non só constataron que nunha investigación realizada na que analizaron máis de 900 reclamacións a Facebook que a resposta era inconsistente (de xeito que os revisores actúan de xeito diferente ante contidos semellantes), senón que quixeron ser máis concretos, e colleron unha mostra de 49 elementos denunciados por usuarios e que son claramente ofensivos, para que dende Facebook recoñeceran o seu erro en 22 casos, en 19 considerasen que estaban dentro das normas da súa comunidade (como, por exemplo, no caso de insultos racistas nos que non se incite á violencia) e, en 6 casos, admitir que os contidos incumprían as normas pero os revisores non os eliminaron por estar mal denunciados ou por seren eliminados polos creadores. Nos 2 casos restantes recoñecen non ter información dabondo para responder.
Justin Osofsky, vicepresidente de Facebook, pediu desculpas polos erros cometidos e asegura que durante 2018 terán até 20.000 persoas encargándose destas tarefas, polo que confían en poder cumprir mellor as súas normas.
O peor destes sistemas de moderación é que non só fallan moito á hora de entender os discursos de odio, senón que tamén actúan no sentido contrario ao que deberían, censurando contidos indebidos, como borrar unha publicación contra unha marcha nazi precisamente por amosar a un neo-nazi na imaxe que a ilustra, co conseguinte bloqueo do usuario durante varios días, para logo pedir desculpas ante as medidas mal aplicadas, dando a impresión de que os revisores de contidos traballan a contra reloxo, sen chegar a entender os textos que están a censurar.
Sobra dicir que as normas de Facebook son pouco claras e non existen unhas pautas publicas para saber concretamente os contidos que aceptan ou rexeitan.

PUBLICIDADE