Vigilancia Inteligente: IA, reconocimiento facial y el desafío de la privacidad.


El reconocimiento facial, potenciado por la inteligencia artificial, se ha convertido en una de las tecnologías más controvertidas de los últimos años. Su uso en videovigilancia plantea importantes interrogantes sobre los derechos humanos, especialmente en términos de privacidad, discriminación y control social.

Esta herramienta ha sido adoptada por gobiernos y empresas en todo el mundo como una herramienta para mejorar la seguridad y optimizar servicios. Desde el control de acceso a edificios hasta la identificación de sospechosos en eventos masivos, la tecnología ha demostrado su eficacia en varios aspectos. Sin embargo, la utilización indiscriminada de estos sistemas sin un marco legal claro, plantea riesgos respecto a la privacidad y el potencial uso indebido de los datos recopilados.


El reconocimiento facial no solo es una cuestión técnica, sino también geopolítica. Las tecnologías de inteligencia artificial, incluidas las de videovigilancia, son dominadas por un pequeño grupo de países como Estados Unidos, China y Rusia. La concentración del desarrollo tecnológico en unas pocas regiones del mundo genera preocupaciones sobre el respeto a los derechos humanos en países que no generan sino que simplemente importan estas tecnologías sin regulaciones adecuadas. 

Por caso, la expansión global de las cámaras de videovigilancia ha crecido exponencialmente en los últimos años, con un despliegue cada vez más extendido en entornos urbanos y espacios públicos. Se estima que, en 2019, había cerca de 1.000 millones de cámaras operativas en todo el mundo. Sin embargo, esta cifra continuó en ascenso, teniendo a China como la principal potencia que encabeza este crecimiento, con una concentración del 54% del total mundial, lo que equivale a más de 540 millones de dispositivos instalados. 

No obstante, habitualmente se suele poner el foco en lo que sucede en China respecto al reconocimiento facial y el derecho a la manifestación, pero poco se dice sobre la utilización indiscriminada de esta herramienta por parte de las agencias norteamericanas de tres letras. Éstas vienen utilizando la videovigilancia a lo largo y ancho del territorio, sin generar, evidentemente, los mismos resquemores que frente a lo que sucede en otra parte del mundo. 

Fuera de China, Londres se destaca como la ciudad con mayor densidad de cámaras en Europa, con aproximadamente 67 por cada 1.000 personas, mientras que Hyderabad, en la India, cuenta con casi 30 dispositivos por la misma cantidad de habitantes. En América Latina, el crecimiento de la videovigilancia también ha sido significativo. Ciudades como Guadalajara, en México, alcanzan una densidad de 170 cámaras por kilómetro cuadrado, mientras que Buenos Aires, la capital argentina, registra 77 dispositivos por la misma extensión territorial. Este incremento responde a la creciente preocupación por la seguridad urbana y la gestión del orden público en grandes metrópolis.

En ese sentido, dentro de los principales riesgos de un uso desregulado de esta herramienta encontramos: 

– Derecho a la privacidad y protección de datos: el reconocimiento facial implica la recopilación y análisis de datos biométricos únicos e irremplazables, lo que convierte a esta tecnología en una herramienta altamente sensible desde el punto de vista de la privacidad. La recolección masiva de imágenes en espacios públicos y privados sin un consentimiento explícito y específico puede vulnerar el derecho a la privacidad de los ciudadanos. 

A diferencia de otros tipos de datos personales, la información biométrica no puede ser cambiada o anulada en caso de exposición indebida, lo que aumenta los riesgos en caso de filtraciones o mal uso. Además, la falta de marcos regulatorios claros sobre la retención, almacenamiento y eliminación de estos datos genera incertidumbre sobre cómo se protegen los derechos de las personas frente a potenciales abusos por parte de entidades públicas y privadas. En muchos casos, las bases de datos que contienen información facial se almacenan por períodos indefinidos, sin supervisión suficiente ni mecanismos efectivos para que los ciudadanos puedan ejercer su derecho a la eliminación de sus datos.

– Sesgos y discriminación algorítmica:  Uno de los problemas más documentados del reconocimiento facial es su falta de precisión en la identificación de ciertos grupos demográficos. Numerosos estudios han evidenciado que los algoritmos tienden a mostrar mayores tasas de error al identificar a mujeres, personas de piel más oscura y otras minorías étnicas. Esto se debe, en parte, a la limitada diversidad de los datos utilizados para entrenar estos sistemas, que suelen basarse en conjuntos de datos predominantemente occidentales y homogéneos. 

Las imprecisiones en la identificación pueden tener consecuencias graves, especialmente en el ámbito de la seguridad y la justicia. Errores en la identificación pueden llevar a arrestos injustificados, restricciones indebidas y procesos legales contra personas inocentes. 

– Seguridad y riesgo de vigilancia masiva: su implementación a gran escala sin controles adecuados puede derivar en la vigilancia masiva de la población. El despliegue de cámaras con tecnología de IA en calles, aeropuertos y espacios públicos podría facilitar la recopilación continua de datos sin el conocimiento o consentimiento de los ciudadanos, generando un entorno de monitoreo constante que afecta la vida cotidiana. El uso indiscriminado de esta tecnología podría convertir a las ciudades en entornos donde cada movimiento es registrado y analizado, lo que plantea interrogantes sobre la proporcionalidad de su aplicación. La falta de transparencia en los sistemas utilizados por gobiernos y empresas privadas genera preocupación sobre cómo se utiliza la información recopilada, quién tiene acceso a ella y con qué propósito.

Para abordar estos riesgos, es imprescindible contar con marcos regulatorios sólidos que establezcan límites claros en la recopilación y el uso de datos faciales. Esto incluye principios de transparencia, rendición de cuentas y consentimiento informado, asegurando que los ciudadanos puedan ejercer un control efectivo sobre su información biométrica.

Errores y aciertos en la aplicación

Uno de los casos más emblemáticos de los problemas asociados con el reconocimiento facial se produjo en Estados Unidos, donde múltiples ciudadanos fueron arrestados erróneamente debido a fallas en los sistemas de identificación utilizados por las fuerzas de seguridad. De acuerdo a datos del medio norteamericano, The Washington Post, al menos ocho personas fueron detenidas injustamente debido a coincidencias erróneas en bases de datos faciales. Este tipo de errores pone en evidencia la falta de precisión de la tecnología y sus sesgos inherentes, que afectan desproporcionadamente a comunidades racializadas.

En el caso de España, la Policía Nacional implementó en 2023 el sistema ABIS (Sistema Automático de Identificación Biométrica), que permite analizar miles de rostros en segundos para la investigación de delitos. Según la Secretaría de Seguridad Ciudadana, el sistema ha sido clave en la resolución de más de 400 casos.

En nuestro país, la Justicia de la Ciudad Autónoma de Buenos Aires mantiene suspendido, a través de una medida cautelar, el uso del Sistema de Reconocimiento Facial de Prófugos (SRFP), atento a que no existe aún una modalidad de auditar el uso de esta tecnología que permita garantizar el pleno goce de derechos constitucionales que podrían verse afectados.

No obstante, la presencia masiva de cámaras de videovigilancia no siempre se traduce en una reducción efectiva de la criminalidad. Diversos estudios han demostrado que una mayor cantidad de dispositivos no necesariamente garantiza una disminución de los delitos, y en muchos casos, su impacto es marginal sin una estrategia de seguridad integral.

A medida que el reconocimiento facial se expande, es crucial que los gobiernos establezcan marcos regulatorios claros y efectivos que protejan los derechos fundamentales de los ciudadanos. Es imprescindible encontrar un equilibrio entre la seguridad y la privacidad, asegurando que las soluciones tecnológicas respeten los derechos de los ciudadanos y no se conviertan en herramientas de vigilancia indiscriminada. A medida que la IA sigue evolucionando, la discusión sobre su uso responsable y equitativo tiene que ocupar un lugar prioritario en la agenda.

En América Latina así como en nuestro país, aún queda un largo camino por recorrer en este aspecto. La falta de legislación adecuada y de mecanismos de supervisión independientes representa un riesgo latente para la protección de los derechos individuales. Es fundamental que las autoridades adopten un enfoque basado en la protección de la privacidad y el respeto a los derechos humanos.

Instituto de Innovación Digital CiudadanIA.

Instituto de Innovación Digital CiudadanIA.