Protón Inteligencia Artificial

El ojo que todo lo ve: secuelas problemáticas del sistema de reconocimiento facial

Son varias las ciudades que apostaron por sistemas de IA de reconocimiento facial, y Buenos Aires no quedó atrás. Las consecuencias  del uso -y abuso- de monitorear a la población.

El ojo que todo lo ve: secuelas problemáticas del sistema de reconocimiento facial

El ojo que todo lo ve: secuelas problemáticas del sistema de reconocimiento facial

Por: Fernando Tarnogol

En la ciudad china de Zhengzhou, un oficial de policía utilizando lentes equipados con tecnología de reconocimiento facial identifica un traficante de heroína en una estación de trenes. En Qingdao, una ciudad famosa por su herencia germana, cámaras equipadas con inteligencia artificial ayudan a la policía a arrestar dos docenas de sospechosos durante un festival cervecero. 

Por si no nos hemos percatado, la distopia orwelliana de 1984 ya existe y está funcionando directamente bajo nuestras narices. Países como China y los Estados Unidos tienen actualmente en práctica sistemas de reconocimiento facial para monitorear a sus ciudadanos. La ciudad de Buenos Aires no es excepción; desde el mes de Abril de 2019 funciona en la city un sistema de este tipo.

El caso chino es el más extremo. El gobierno ha recibido la condena internacional por la requisa étnica de musulmanes en su región occidental, donde casi 1 millón de musulmanes son retenidos actualmente en campos de detención.

La tecnología de reconocimiento facial integrada a la red de cámaras de vigilancia chinas busca exclusivamente Uighurs basado en su apariencia y mantiene registro de sus movimientos a través del territorio y mapea sus relaciones sociales.

En las calles de algunas ciudades chinas, se exponen en pantallas gigantes fotos -junto con el "DNI" y el nombre- de personas que cruzaban la calle incorrectamente como forma de humillación y disuasorio.

Esta tecnología no está libre de controversia. En un experimento realizado en los Estados Unidos se encontró que la tasa de error ronda el 5%: el sistema de reconocimiento confundió a 28 Senadores con criminales. Un sistema de reconocimiento similar se utilizó en Inglaterra para un partido de fútbol y dio un 92% de falsos positivos.

Escapando de la mirada de Gran Hermano

Ingenieros de la Universidad de KU Leuven (Belgica) desarrollaron una manera para engañar la detección de objetos que realiza un algoritmo llamado YOLOv2. Los resultados de su trabajo fueron publicados en un paper llamado "Engañando cámaras de seguridad automatizadas: parches adversarios para atacar la detección de personas.

Mediante un "parche" generado por computadora se confunde al algoritmo que ha sido entrenado para reconocer objetos y personas. A los ojos del sistema de inteligencia artificial, la persona que posee el parche se torna invisible.

De no ser prohibidos, es dable pensar que en un futuro próximo, podamos lucir estos diseños en nuestra vestimenta para evitar ser identificados. Si bien ésta solución es relativamente sencilla, plantea otros problemas con consecuencias potencialmente mucho más graves en lo individual. 

En un mundo donde comienzan a asomar los vehículos autónomos donde el conductor es un sistema de inteligencia artificial, estos patrones visuales que se utilizan para invisibilizar objetos pueden tornar a quien lo porta imperceptible a los sistemas de reconocimiento de los vehículos, lo que nos convertiría en invisibles y nos pondría en un potencial riesgo de ser atropellados.

Actualmente, ningún gobierno se está cuestionando seriamente la moralidad o ética de la invasión de la privacidad, escudándose en proyecciones teóricas acerca de la merma en tasas de criminalidad y avanzan sin pausa en su implementación. El Vicejefe de Gobierno porteño, Diego Santilli, argumentó que "es sólo para aquellas personas que están siendo buscadas por la Justicia". Lo que omitió mencionar es que todas las personas serán escaneadas por las cámaras de seguridad repartidas a lo largo y ancho de las calles ciudad.

En esta nota:

Comentarios