Las gafas inteligentes que conocimos en todo el planeta hace un tiempo, parecían haberse estancado en los gadgets más destacados y olvidados al poco tiempo. Sin embargo, una de sus posibilidades ha sido noticia en todo el mundo, pero por el peligro y miedo que ha logrado despertar.
Dos estudiantes de Harvard han comprobado que las ventajas y prestaciones de estas “gafas inteligentes” pueden utilizarse de forma muy invasiva en la privacidad de cualquier viandante de cualquier ciudad del globo.
New from 404 Media: someone put facial recognition on Meta's smart glasses to instantly dox strangers. You look at them, sends face to a facial recognition tool. LLM infers name, sends to people site. Gets phone number, address. I've seen it in action https://t.co/3e6tC5juN6
— Joseph Cox (@josephfcox) October 2, 2024
Se trata de un reconocimiento facial de las conocidas gafas inteligentes de Meta, las ‘Ray-Ban’, que supone una gran vulnerabilidad de la privacidad y los datos personales, simplemente por sus propias características ‘inteligentes’ y todo su potencial innovador.
En tiempo real, con apenas mirar a la cara de una persona desconocida unas décimas de segundo, ¡ni siquiera un segundo! Son capaces de realizar un minucioso reconocimiento facial, y con él saber una cantidad enorme de datos sobre esa persona.
Así, según han demostrado estos estudiantes, un desconocido puede interpelar con la persona reconocida por unas ‘Smart glasses’ como si ambos hubieran coincidido en un antiguo colegio, empleo, asociación o colectivo, saber su currículum, publicaciones universitarias o en redes sociales…
Al alterar su configuración y algunas opciones, cualquier usuario con estas gafas puede conocer millones de datos personales de cualquier persona que simplemente se cruce por la calle. Una manipulación que dos jóvenes universitarios fueron capaces, AnhPhu Nguyen y Caine Ardayfio, probaron a realizar un vídeo en instagram en directo conectando su smartphone con sus gafas con cámara. En esa transmisión gracias a la inteligencia artificial el sistema fue capaz de reconocer caras de las personas con las que se iban cruzando por la calle gracias a las fotos que esas personas tienen en sus redes sociales. De esta forma, los dos estudiantes crearon una herramienta que han denominado I-Xray que bebe de la IA y de los datos públicos de las redes sociales como direcciones, mails, teléfonos...
Con el grave riesgo no solo de intromisión a la intimidad de cualquiera, si no que puede resultar muy peligroso por la confianza o desconcierto que puede provocar que alguien de repente sepa todos esos datos de la persona detectada.
En muchos contextos como personas menores, vulnerables como ancianos, enfermos… o en determinadas situaciones y contextos puede provocar una situación de inferioridad y/o vulnerabilidad en la persona que evidentemente no es ni legal ni ética.