YouTube recomendó vídeos de niñas a depredadores sexuales

| | Palma |

Valorar:
preload
El algoritmo de YouTube está hecho para potenciar la permanencia del usuario en la red social de vídeos más popular del mundo, pero no todo vale.

El algoritmo de YouTube está hecho para potenciar la permanencia del usuario en la red social de vídeos más popular del mundo, pero no todo vale.

06-06-2019 | Pixabay

Todo por las visitas y por la permanencia en la web. El algoritmo de YouTube está hecho para potenciar que el usuario pase la mayor cantidad de tiempo posible en la red social de vídeos más popular del mundo. Es un organismo artificial vivo que 'aprende' de la experiencia del usuario con el fin de sugerir aquellos vídeos que puedan ajustarse más a sus intereses. Así se visualizan la mayor parte de los vídeos de YouTube. Hasta aquí todo bien. El problema llega cuando los vídeos que se sugieren tienen por objeto a menores y se dirigen a depredadores sexuales.

Una investigación llevada a cabo por un equipo de expertos de la Universidad de Harvard ha desentrañado esta práctica, y ha ratificado que un vídeo en el que aparecen dos niñas brasileñas de 10 años en bikini refrescándose en la piscina de una casa llegó a usuarios de todo el mundo que habían visto vídeos de temática sexual relacionados con menores. Así lo recoge la Cadena Ser, en base a una información de 'The New York Times'.

En unos pocos días de vida en la red social un vídeo cotidiano, familiar, que a priori no tiene ninguna connotación sexual, llegó a las 400.000 visitas. Esto fue posible, según los investigadores de Harvard, porque YouTube se lo recomendó a usuarios que con anterioridad habían buscado contenido con palabras clave como 'jovencitas', 'adolescentes' o 'chicas'; un uso inexacto y además pernicioso que pone en el punto de mira a las personas más vulnerables.

La plataforma de vídeo online se defiende y afirma que hace tiempo que trabaja con distintas herramientas que pretenden poner freno a los depredadores sexuales, y que todo se trata de un erro fruto del ajuste ordinario de sus algoritmos. Unos algoritmos que tan solo ellos conocen.

Está claro que en esta ocasión los filtros no han funcionado. Lo que piden los padres es que sus hijos estén seguros en todas partes, también en la red.

Y aunque los investigadores creen que YouTube no tuvo dolo ni premeditación en este caso en particular, sí tienen perfectamente descrito como vídeos caseros de este estilo terminaron en un repositorio que fue sugerido a una gran audiencia de usuarios que anteriormente habían visto vídeos de contenido sexual, con el único objetivo de mantenerles el mayor tiempo posible 'enganchados' a su plataforma.

Comentar

* Campos obligatorios

De momento no hay comentarios.