En medio del confinamiento millones de personas se dejaron seducir por la idea de descubrir como se verían si fueran del sexo opuesto. Otros, sin siquiera haber descargado la aplicación, terminaron con su rostro en algún servidor extranjero, a costa de algún amigo o amiga que decidió subir su foto a la aplicación y ver cómo luciría.
Lo cierto es que detrás de la aplicación de moda, se solventa la pérdida de la privacidad y se abren las puertas a una serie de peligros que la mayoría de los usuarios prefieren ignorar.
Aunque la compañía creada por Yaroslav Goncharov asegura que da de baja el contenido o que no vende los datos, las especificaciones de sus términos y condiciones para el uso de FaceApp, señalan lo contrario.
“Usted le otorga a FaceApp una licencia perpetua, irrevocable, no exclusiva, en todo el mundo, totalmente pagada y transferible para usar, modificar, adaptar, publicar, crear trabajos derivados”, dice uno de los párrafos que más alarma ha generado. Es decir, FaceApp tiene derecho sobre el contenido cargado a la aplicación de por vida. Si no descargaste la aplicación y alguien más subió tu foto, aquella imagen igual les pertenece.
Desde el punto de vista del informático forense Gabriel Coronado, uno de los principales peligros está relacionado a la privacidad. “Tu privacidad se convierte en un aspecto público”, dice mientras explica que en la era digital la información se traduce en dinero, pues cientos de compañías están dispuestas a pagar por conocer las tendencias, modas y gustos de los usuarios. Visto así, el reconocimiento facial se suma a estos puntos de información que dejamos en la web.
La licencia de FaceApp es perpetua, irrevocable y no exclusiva
“Si bien tiene muchas ventajas, porque puede ayudar a encontrar a personas perdidas o delincuentes, el que esa información se pública también tiene grandes desventajas”, asegura.
Coronado hace énfasis en que en Bolivia, todos los servicios de reconocimiento facial se conectan con servidores internacionales, por lo que esa información que se genera, se va a otros países que pueden tener políticas de privacidad diferentes, haciendo que esta sea pública y viral.
“Hay grandes empresas que compran de esos bancos de datos, pues esta información les sirve para hacer seguimiento del comportamiento de consumo de las personas”, dice al respecto.
Cabe recordar el caso de la empresa Cambridge Analityca, la cual utilizaba el análisis de datos para desarrollar campañas para marcas y políticos que buscan «cambiar el comportamiento de la audiencia», según indica su propio sitio web.
Cambridge Analytica había accedido de forma irregular a la información de más de 50 millones de usuarios de Facebook, y utilizaba sus datos para desarrollar campañas con fines políticos y comerciales.
A través de esos datos, la empres habría logrado analizar la forma de pensar de los votantes y llegar a ellos con los mensajes que inclinarían su voto hacia el candidato republicano, que era Donald Trump.
Volviendo a las aplicaciones de reconocimientos facial, Coronado asegura inclusive ponen en riesgo la seguridad bancaria de los usuarios. “Ya hay hechos reportados en los cuales, por reconocimiento facial, han vaciado cuentas”.
Coronado lamenta que el boliviano es muy “consumista”, y abraza positivamente las tecnologías de “afuera”, sin ser consciente de los riesgos que esto implica.
Sin embargo, asegura que estas tecnologías también pueden ser positivas y simplificar la vida a las personas. Todo depende de su uso. “Pero esas soluciones aún no están maduras, no están bien concebidas y lamentablemente en Bolivia, en lo último que pensamos, es en la seguridad”.
También te puede interesar Género, derechos y seguridad: El riesgo de ser mujer en el entorno digital
Qué es Clearview AI y cómo usa el reconocimiento facial
Bajo el lema de “visión por computadora para un mundo más seguro”, Clearview AI se proclama como una “nueva herramienta de investigación utilizada por los organismos encargados de hacer cumplir la ley para identificar a los autores y víctimas de delitos”.
La empresa, que ostenta tener una base de datos de 3000 millones de imágenes de imágenes, utiliza el reconocimiento facial para identificar a niños víctimas de abuso y explotación sexual.
De acuerdo a una investigación del New York Times, los investigadores que utilizan este programa aseguran que “las herramientas de Clearview les permiten saber los nombres o el paradero de menores que aparecen en videos o fotos de explotación sexual y que, de otro modo, tal vez no habrían sido identificados”.
Aunque el director ejecutivo de la compañía, Hoan Ton-That, de origen vietnamita-australiano, asegura que su tecnología será utilizada para “bien”, a principios de año se generó revuelo luego de que The New York Times revelara que el amplio banco de imágenes que utiliza la Clearview AI, fue obtenido de imágenes de los usuarios de Facebook, Twitter, Youtube y otras plataformas sociales, pese a que esto va en contra de las políticas de privacidad de todas estas plataformas.
Además, la compañía también retiene esas fotos en su base de datos incluso después de que los usuarios de internet las borran de las plataformas o hacen que sus cuentas sean privadas, lo cual nos hace cuestionarnos sobre la privacidad como la conocíamos hasta ahora, la seguridad y los derechos humanos. ¿Hasta qué punto lo que está en la red les pertenece a todos?