Rafel Tudurí, experto en tecnología e Inteligencia Artificial | Julio Bastida

TW
4

La Agencia Española de Protección de Datos (AEPD) obligó el pasado miércoles a la empresa Worldcoin a interrumpir, de forma cautelar, su actividad en España y le prohibió seguir escaneando el iris a miles de personas y recopilando datos personales de esa manera. Tras la instrucción, la delegación balear decidió echar el cierre de su instalación ubicada en los exteriores del centro comercial Fan Mallorca. El especialista en tecnología e inteligencia artificial, Rafael Tudurí aclara las dudas sobre la seguridad y riesgos de esta nueva modalidad.

¿La inteligencia artificial mal aplicada nos puede complicar la vida? ¿Se puede convertir en nuestra mayor pesadilla?
—Lamento decir que si. Como todo en esta vida tiene su lado bueno y su otro lado menos bueno. Será una fantástica ayuda para la evolución y desarrollo de las personas, pero también nos hará susceptibles a posibles engaños, estafas, incluso dependencias que ahora no podemos imaginar. Tendremos que revisar y verificar casi cualquier contenido y comunicación digital ya que será muy complicado distinguir si detrás de lo que estamos viendo o leyendo existe una realidad o es fruto del imaginario de una inteligencia artificial.

¿Es segura la inteligencia artificial en manos de los delincuentes?
—La inteligencia artificial en manos de los delincuentes puede resultar letal. Y además, nos tendría que preocupar mucho más el uso que realizan los niños sobre la IA. Los padres, estaremos obligados conocer y saber utilizar la herramienta si queremos controlar su uso y abuso. Un motosierra en manos de un experto no representa ningún peligro, pero en las manos equivocadas puede ser muy peligroso.

En Fan Mallorca nos pagaban por vender nuestro Iris y nos pagaban en criptomonedas. ¿Para qué quieren nuestro iris?
—Ellos nos argumentan que lo van a usar para identificar y diferenciar humanos de robots, algo bastante ilógico ya que hay formas mucho más simples y económicas para hacerlo. El iris es un dato biométrico extremadamente valioso ya que es un elemento identificador único en cada ser humano. Nos servirá para crear y proteger nuestra identidad digital como lo ha sido la huella dactilar. Además ofrece información biométrica sensible que podría facilitar la detección de enfermedades actuales o incluso predecir futuras enfermedades.

¿Podrían vender estos datos en un futuro?
—Por supuesto. Es importante recalcar en este punto que en España la entidad reguladora de la protección de datos ha prohibido la actividad de wolrdcoin en todo el país a la par que ha bloqueado las criptomonedas de los pagos lo que imposibilita a los usuarios su venta y conversión a moneda real. No está nada clara la finalidad de nuestros datos por parte de la empresa que lo gestionaba. Nadie regala dinero a cambio de nada.

Rafel Tudurí: «La inteligencia artificial en manos de los delincuentes puede ser un arma letal »

En los aeropuertos a través del reconocimiento facial (voluntario) nos permiten no hacer colas. ¿Lo recomiendas?
—Si bien es un caso bastante similar, a diferencia de worldcoin la compañía nos deja muy claro cual es la finalidad de este reconocimiento. A día de hoy es muy complicado frenar este tipo de tecnologías que llevan conviviendo con nosotros desde hace ya varios años. Si usamos nuestra cara para desbloquear el teléfono móvil ya le estamos facilitando nuestra información biométrica a la empresa de turno. No hay que crear alarma ya que estas prácticas pueden ser muy funcionales y agilizar bastantes procesos. Pero si es importante ser consciente de que al entregar un rostro, una cara, damos mucha más información que solo nuestros rasgos faciales.

¿Dónde van los datos y quién los regula?
—La propia empresa poseedora del software que hace uso de los mismos o los almacena ... es la responsable de garantizar la seguridad y el buen uso de los datos. Falta mucho camino para poder garantizar al 100% un uso responsable, ético y coherente de esta información.

¿Nos pueden falsear nuestra voz con inteligencia artificial?
—Por supuesto. La IA puede ser utilizada para replicar o falsear voces con un alto grado de precisión, lo que plantea riesgos significativos en términos de suplantación de identidad y desinformación. Podríamos ir un paso más si quieres ya que no solo nos pueden replicar nuestra voz con solamente un pequeña grabación de 5 minutos de la voz a clonar, si no que con 5 o 6 fotografías podríamos crear un avatar virtual photorealista igual que el sujeto a clonar.