Facebook trabaja en una herramienta que le permita verificar que los contenidos compartidos en su plataforma de chat WhatsApp no son inapropiados ni incumplan sus reglas.

Según Forbes, se trataría de un algoritmo que revisará el tipo de contenido antes de que entre en función el cifrado de extremo a extremo, una encriptación que impide que los mensajes sean leídos por personas que no sean destinatarios.

Facebook ya cuenta con filtros para evitar que contenido violento o sexual sea publicado por los usuarios, así como videos con música protegida por derechos de autor, mismos que se eliminan automáticamente e incluso pueden provocar el bloqueo de la cuenta.

La diferencia es que la encriptación de Whatsapp seguiría impidiendo que terceros pudieran tener acceso a los mensajes, sin embargo, Facebook si podría analizarlos y decidir si el contenido de las conversaciones cumple con sus políticas.

Las políticas de Facebook

En días pasado varios usuarios de Facebook denunciaron que fueron censurados por la red social dirigida por Mark Zuckerberg por utilizar, en diversos contextos, la palabra tortillera.

Al parecer, para la plataforma esta palabra infringe sus normas comunitarias sobre lenguaje que incita al odio ya que puede usarse como calificativo despectivo para describir despectivamente a una mujer lesbiana. Sin embargo, el uso de esta palabra es común en México, ya que originalmente se refiere a la mujer que hace tortillas.

Al detectar dicha palabra de manera automática Facebook reportaba la publicación y mandaba un mensaje de advertencia, donde se indicaba que se estaba infringiendo las «normas comunitarias sobre lenguaje». No obstante, de no estar de acuerdo los usuarios con la advertencia, la plataforma brinda la oportunidad de solicitar una revisión.

Publimetro.