La compañía dispone de una serie de soluciones de moderación para sus redes sociales, con las que revisa las publicaciones que los usuarios comparten de cara a garantizar que el contenido publicado cumpla con sus normas comunitarias y políticas de uso.
Estas herramientas de moderación están supervisadas por equipos internos de Meta que, además, trabajan con socios externos a nivel global para obtener asesoramiento y analizar posibles actuaciones, tal y como detalla en su página de Centro de transparencia.
Con ello, revisan y analizan las publicaciones para identificar cuestiones como si son falsas, si contienen información errónea o si promueven acciones dañinas para los usuarios. Igualmente, también tratan de proteger a los usuarios menores con medidas que corroboran la edad de los usuarios para, en caso de disponer menos de 16 años, utilizar cuentas de adolescentes adecuadas a su edad.
De esta manera, tal y como se detalla en las Normas comunitarias de Instagram, la compañía pretende evitar la viralización de contenido falso o erróneo para impedir que los usuarios puedan ser engañados, por ejemplo, a la hora de compartir contenido político. Igualmente, también tratan de erradicar el 'spam'.
Asimismo, fomentan un espacio seguro libre de publicaciones violentas que promuevan acciones de odio o que puedan suponer un peligro para los usuarios, como el 'bullying', el acoso, las amenazas u otros contenidos que «puedan silenciar a otros usuarios». De la misma forma, persiguen publicaciones que resulten inapropiadas para un «público diverso», como el contenido de desnudos.
Con todo ello, cuando Meta identifica una publicación o una cuenta que infringe estas normas a través de sus herramientas de moderación, puede llevar a cabo acciones bloquear la cuenta, eliminar publicaciones o limitar la visualización del contenido en el 'feed', entre otras medidas.
Sin embargo, algunos usuarios han compartido recientemente casos en los que las herramientas de moderación de contenido en Instagram y Threads están cometiendo fallos que ocasionan la eliminación o bloqueo de sus cuentas sin motivos reales de incumplimiento de las normativas comunitarias.
Así lo han detallado algunos usuarios afectados a través de publicaciones en Threads, como es el caso del analista de redes sociales Mat Navarra. Este ha señalado que Meta calificó una de sus publicaciones como información falsa y, en consecuencia, limitó la visualización de sus publicaciones, que aparecen más abajo en el 'feed' y no se muestran a usuarios que no le siguen. En este caso, cabe matizar que la apelación frente a estas medidas fue rechazada.
En otra ocasión, Threads bloqueó la cuenta de un usuario por un breve periodo de tiempo por compartir una publicación en la que esta persona bromeó con querer morir debido a una ola de calor.
Igualmente lo ha recogido The Verge, desde donde han apuntado un caso en el que Meta eliminó una cuenta de Instagram por, supuestamente, pertenecer a una persona menor de edad, a pesar de que el perfil estaba propiamente identificado como perteneciente a un adulto mediante su documento oficial de identidad. En este caso, el usuario tampoco pudo apelar la decisión de moderación de Meta.
Al respecto, el responsable de Instagram, Adam Mosseri, ha señalado a través de Threads que están investigando estos fallos en ambas plataformas de Meta. Sin embargo, no ha compartido más información al respecto, por lo que se desconocen las causas de estos fallos en las herramientas de moderación de contenidos.
Sin comentarios
Para comentar es necesario estar registrado en Ultima Hora
De momento no hay comentarios.