Publica Facebook las directrices de lo que acepta y no en su portal

 

Si en alguna ocasión  te has preguntado qué tipo de cosas no quiere exactamente Facebook en su cibersitio, estás de suerte. Por primera  ocasión, la red social publica 27 páginas con directrices detalladas sobre lo que puede y no puede aparecer en su web.

Así que, por favor, no hagas amenazas violentas creíbles ni se deleite con la violencia sexual; no promueva el terrorismo ni la caza furtiva de especies amenazadas; no intente comprar marihuana, vender armas de fuego o publicar los precios de venta de medicamentos con receta; no publique instrucciones para autolesionarse; no muestre a menores en un contexto sexual ni cometa múltiples homicidios en diferentes momentos o lugares.

Facebook ya había vetado la mayoría de estas acciones su anterior página “estándares de la comunidad”, que esbozaba a grandes rasgos los estándares de la red social. Pero el texto publicado el martes incluye algunos detalles que a veces pueden resultar sangrientos.

Las pautas actualizadas serán los criterios que emplean sus 7, 600 moderadores para revisar la tarea de reflejar publicaciones cuestionables y decidir si son eliminadas y, en ocasiones, alertar a las autoridades.

Los criterios en sí no cambian, pero los detalles revelan información interesante. Las fotos de senos están permitidas en algunos casos, como en imágenes de lactancia materna o en pinturas, pero no en otros.

El documento detalla lo que considera explotación sexual de adultos o menores, pero deja espacio para prohibir otras formas de abuso en caso de que surjan.

Dado que Facebook no permite la presencia de asesinos en serie, las nuevas guías definen el término: cualquier persona que haya cometido dos o más asesinatos en “múltiples indecentes o ubicaciones”.

Las personas que cometieron un único homicidio no serán excluidas. Al fin y al cabo, podría haber sido en defensa propia.

El repaso a las pautas da una idea de lo difícil que debe ser la labor de un moderador de Facebook.

Estas personas tienen que  leer y observar material cuestionable de todo tipo y tomar decisiones complicadas como por ejemplo si video hace apología de los desórdenes alimenticios o simplemente busca ayudar a la gente. O cuándo se cruza la línea entre la broma y el acoso o se pasa de una reflexión teórica a una amenaza directa, y similares.

Los moderadores operan en 40 idiomas distintos. El objetivo de Facebook es responder a los reportes sobre contenidos cuestionables en un plazo 24 horas, aunque dice que no impone cuotas ni límite de tiempo a las revisiones.

La red social ha cometido varios errores sonados en los últimos años. Por ejemplo, grupos de derechos humanos dicen que Facebook ha dado una respuesta inadecuada al discurso de odio y la incitación a la violencia contra las minorías musulmanas en Myanmar.

En 2016, Facebook se retractó luego de eliminar una icónica fotografía de 1972 de The Associated Press en la que aparece una niña corriendo desnuda y gritando tras un ataque con napalm en Vietnam.

En un primer momento, la empresa  se dio a la tarea de insistir en que no podía crear una excepción para una fotografía en concreto de un menor desnudo, pero pronto se retractó apuntando que la imagen tenía una “importancia global”.

Noticias relacionadas

Comenta