TW
0

Parece un vídeo normal, recargado, pero dentro de lo habitual. Una mujer vestida de cuero negro que pasea por un Tokio recargado de luces y colores. Las imágenes que Open IA ha lanzado para anunciar su aplicación de vídeo, Sora, suenan familiares. La empresa afirma que son el fruto de una inteligencia artificial a la que simplemente se le han dado unas instrucciones. Aunque hayan mostrado el mejor resultado de los ensayos, da el pego. Se imagina uno cualquier escena y, con describirla de forma coherente, se consigue un minuto de vídeo realista. Ver para creer. Inmediatamente las reacciones se han movido entre el asombro y el apocalipsis. Los segundos auguran un mundo lleno de vídeos mentirosos en los que se demuestren mendaces crímenes cometidos por el objetivo menos sospechado.

El lanzamiento de Sora coincidía con el anuncio de la nueva inteligencia con la Google pretendía competir con Open IA y quizá alguna relación tenga un anuncio con tapar el otro. También ocurría en una semana en la que la red antes conocida como Twitter se llenó de falsas imágenes sexuales de Taylor Swift. Miles de fans consiguieron eliminarlas en pocas horas, cosa que solo es posible en el caso de la cantante más famosa del mundo ahora mismo. Cualquier otra persona hubiera tenido que aguantar las fotografías durante semanas. Ilustra el asunto que no era necesaria una nueva aplicación y un avance tecnológico ya para provocar los efectos que se auguran. Ya están aquí. No se puede creer uno nada de lo que vea y es seguro que cada vez se deberá desconfiar más de la vista como fuente de verdad. Será un aprendizaje convulso el que queda en las próximas décadas. Un hundimiento de la certidumbre, por fuerza tendrá que tener efectos en el modo de relacionarse y de actuar. Habrá que poner dos dedos en la llaga, salvo que, en un peor escenario todo sea fé.