Miércoles 11 de Diciembre - 2024
VENEZUELA
Escoge tu edición de 2001online.com favorita
Venezuela
América

Facebook dice que elimina el 95 % de los discursos de odio de forma proactiva

Jueves, 19 de noviembre de 2020 a las 04:18 pm
Suscríbete a nuestros canales

La red social Facebook presentó este jueves su último informe sobre el cumplimiento de las normas comunitarias en la plataforma,

En el mismo, aseguró que el 95 % de los discursos de odio son eliminados de forma proactiva sin necesidad de que los usuarios los denuncien.

Menlo Park explicó que hace tres años, la inteligencia artificial únicamente le servía para detectar de forma proactiva el 23,6 % de los mensajes de odio.

De manera que el resto solo eran retirados cuando algún usuario denunciaba estos contenidos y por tanto aumentaba su exposición.

Sin embargo, entre julio y septiembre de este año, de las decenas de millones de contenidos de odio eliminados en Facebook e Instagram

El 95 % fueron suprimidos de forma proactiva al ser detectados por sistemas de inteligencia artificial, reduciendo así significativamente su tiempo de exposición.

En concreto, la compañía retiró por este motivo 22,1 millones de mensajes en Facebook durante esos tres meses y 6,5 millones en Instagram.

Cabe destacar que el período contenido en el informe incluye parte de la campaña presidencial estadounidense.

Pero no la recta final (octubre) ni la jornada electoral en sí o los varios días que duró el escrutinio de los votos en noviembre.

Informe de datos sobre "prevalencia"

Se añadió el informe datos sobre la "prevalencia" de los mensajes de odio.

El porcentaje de veces que los internautas ven contenidos que violan las normas comunitarias de la plataforma.

Para cuantificar esta variable, la empresa toma una muestra aleatoria de contenidos visibles en Facebook (es decir, que no han sido retirados).

Analiza cuáles de ellos son mensajes de odio (que atentan contra grupos de personas por su raza, sexo, cultura, creencias religiosas, orientación sexual, etc).

Según este método, la prevalencia de contenidos de odio entre julio y septiembre fue de entre el 0,10 y el 0,11 %.

Esto supone que de cada 10.000 veces que un usuario vio contenidos en Facebook, diez u once de ellos contenían mensajes de odio.

El vicepresidente de Integridad defendió la decisión de la empresa de hacer regresar a la oficina a sus moderadores de contenido, pese a la pandemia.
Rosen salió al paso de la carta publicada por 200 de estos moderadores que pedían seguir trabajando desde casa para evitar riesgos de contagio.

Explicó que la razón por la que se les pide que vuelvan a la oficina es porque hay materiales muy sensibles que no pueden revisarse desde el hogar. 

Para mantenerte informado sigue nuestro canal en Telegram https://t.me/Diario2001Online