Fuente: CIPER
Según documentos obtenidos por la organización británica Big Brother Watch, en los últimos dos años ocho estaciones de metro en cuatro ciudades del Reino Unido han hecho pruebas con cámaras de vigilancia conectadas a sistemas de inteligencia artificial. El objetivo es usar tecnologías de reconocimiento facial y análisis de imagen para detectar posibles incidentes en la red de transporte público como accidentes, crímenes, o comportamientos prohibidos (fumar, correr, patinar, entre otros). Sin embargo, como informa la misma organización, los usos de esta tecnología se extenderían también a recopilar datos demográficos de pasajero/as (por ejemplo, su género o edad), así como a detectar sus emociones para vender publicidad personalizada.
La detección de emociones en la expresión facial es un tema ya conocido en la ciencia de la emoción. El psicólogo estadounidense Paul Ekman desarrolló su programa de investigación alrededor de la idea de distinguir tipos de expresiones faciales producidas y reconocidas por todos los seres humanos, independientemente de su contexto social. Este programa de investigación goza de una inmensa popularidad cultural, y ha nutrido el guion de, por ejemplo, la serie de televisión Lie to Me (2009-2011) y las populares películas de Intensamente [foto superior], exitosa producción de los Estudios Disney-Pixar cuya segunda parte se encuentra ahora en cines chilenos. Pese a ser objeto de fuertes críticas en el campo científico, el estudio de Ekman sobre las expresiones faciales también ha sido aplicado en materia de seguridad por el FBI para entrenar personal en la detección de mentiras a través de la identificación de «microexpresiones».
La agenda de usar el reconocimiento de expresiones faciales para asuntos de seguridad no es nueva, pero el veloz avance de la IA en los últimos años ha permitido automatizar estos procedimientos y extender sus potenciales usos. Esto abre la puerta a nuevos problemas; uno de ellos, el de los sesgos que los algoritmos reproducen y refuerzan, contribuyendo a prácticas de discriminación y exclusión. En Los sesgos del algoritmo (2024), la académica Gabriela Arriagada Bruneau advierte que centrar nuestra atención tan sólo en el avance tecnológico con el que hoy convivimos puede invisibilizar los factores sociales presentes en estas nuevas herramientas.
Aunque los fines iniciales de aplicar estas tecnologías, como la prevención de accidentes o incluso del suicidio, son loables, su uso para otros propósitos no ha sido adecuadamente informado a la comunidad.