Los polémicos métodos que utilizan algunos aeropuertos para 'evaluar' ciudadanos
La CBP ha desplegado escáneres biométricos y sistemas de IA en aeropuertos, pero persisten dudas sobre su legalidad, sesgos y falta de supervisión

La Oficina de Aduanas y Protección Fronteriza (CBP, por sus siglas en inglés) de Estados Unidos ha comenzado a implementar nuevas tecnologías de inteligencia artificial y reconocimiento biométrico para reforzar sus sistemas de control en aeropuertos y puntos de entrada internacionales. Aunque estas herramientas se presentan como avances en eficiencia y seguridad, diversos expertos han advertido sobre su impacto ético, legal y social.
Desde 2024, la CBP ha desplegado sistemas avanzados de reconocimiento facial en más de 40 aeropuertos estadounidenses como parte de su programa Biometric Entry-Exit. Estos sistemas escanean el rostro de cada pasajero internacional y lo comparan con una base de datos de imágenes previamente registradas por agencias federales como el Departamento de Estado, USCIS y el FBI.
El objetivo declarado es verificar la identidad de los viajeros con mayor rapidez y precisión, detectar documentos falsos y combatir el fraude de identidad. Sin embargo, informes como el del Georgetown Law’s Center on Privacy & Technology señalan que la CBP no ha demostrado de forma concluyente la eficacia de este sistema en mejorar la seguridad nacional ni ha clarificado los protocolos de resguardo de los datos recolectados.
Riesgos de discriminación algorítmica
Una de las principales preocupaciones gira en torno a los sesgos raciales y de género presentes en los algoritmos de reconocimiento facial. Estudios del National Institute of Standards and Technology (NIST, 2019) revelan que muchas de estas tecnologías presentan tasas de error significativamente mayores al identificar rostros de personas no caucásicas, especialmente mujeres negras y personas de origen asiático.
Además del reconocimiento facial, la CBP ha comenzado a implementar sistemas de análisis de comportamiento y evaluación de riesgo basados en inteligencia artificial. Estas plataformas analizan patrones como el historial de viajes, interacciones sociales, e incluso el lenguaje corporal de los pasajeros para predecir posibles "amenazas".
Estas evaluaciones automatizadas se aplican en tiempo real en los aeropuertos, a menudo sin conocimiento ni consentimiento explícito de los pasajeros. De acuerdo con una investigación del Electronic Frontier Foundation, esto puede conducir a decisiones erróneas por parte de sistemas opacos, sin mecanismos claros para apelar o revisar los resultados.
Falta de transparencia y supervisión
El carácter automatizado y la falta de transparencia de estos sistemas plantean interrogantes fundamentales: ¿quién define lo que constituye una amenaza? ¿Cómo se entrena a los algoritmos? ¿Puede un ciudadano sufrir restricciones o consecuencias sin haber sido informado de los criterios utilizados?
Organizaciones defensoras de derechos civiles alertan que este tipo de prácticas comprometen principios esenciales como el debido proceso, la privacidad y la no discriminación. También critican que la CBP haya expandido el uso de estas tecnologías sin una supervisión adecuada del Congreso ni un debate público informado.
Un informe de la Oficina de Responsabilidad Gubernamental de EE. UU. (GAO), publicado en 2023, señala que la CBP aún no ha implementado mecanismos de auditoría robustos ni evaluaciones integrales sobre el impacto social de sus programas de vigilancia tecnológica.
Debate global y colaboración con el sector privado
Frente a estas críticas, la CBP argumenta que la recopilación de datos biométricos se enmarca dentro de lo legal según la Ley de Inmigración y Nacionalidad, y que los datos se almacenan en servidores seguros con protocolos de cifrado avanzados. No obstante, no se han presentado auditorías independientes que verifiquen estas afirmaciones.
A nivel internacional, tecnologías similares han enfrentado cuestionamientos legales. En el Reino Unido, por ejemplo, el uso del reconocimiento facial por parte de la policía metropolitana fue declarado ilegal en 2020 por carecer de criterios claros y por violar la privacidad ciudadana, según resolvió el Tribunal de Apelaciones.
Académicos en ética tecnológica, como la Dra. Latanya Sweeney de la Universidad de Harvard, han advertido que estos sistemas, al operar sin suficiente supervisión externa, podrían facilitar abusos de poder o replicar patrones discriminatorios ya presentes en la sociedad.
Otra preocupación creciente es la colaboración entre agencias gubernamentales y empresas privadas. Aerolíneas como Delta y JetBlue han comenzado a incorporar tecnologías de reconocimiento facial para procesos de embarque rápido, lo que plantea nuevas interrogantes sobre la gestión privada de datos sensibles.
Organizaciones como la American Civil Liberties Union (ACLU) han presentado demandas y exigencias para que la participación en estos programas sea voluntaria, y para que se eliminen los datos biométricos recolectados después de su uso, en lugar de almacenarlos indefinidamente.
Una transformación silenciosa
También desde el ámbito científico se ha cuestionado la validez de estos sistemas. Investigadores del MIT y Stanford han señalado que muchos modelos de inteligencia artificial utilizados por el gobierno no han sido sometidos a revisión por pares ni publicados en revistas científicas, lo que impide evaluar su precisión real.
A medida que estas tecnologías se integran en procesos cotidianos como el control migratorio y los embarques aéreos, aumenta la necesidad de contar con marcos regulatorios sólidos que garanticen el respeto por los derechos humanos fundamentales.
La aviación comercial, símbolo de la globalización y el libre tránsito, podría estar transformándose silenciosamente en una red de vigilancia de alta precisión si estas tecnologías continúan expandiéndose sin control ni rendición de cuentas.
Aunque se argumenta que estos sistemas aumentan la eficiencia y la seguridad, el costo social y político de su implementación sin garantías adecuadas podría ser demasiado alto. La evaluación automatizada de ciudadanos, sin transparencia ni responsabilidad, puede erosionar derechos fundamentales que han tomado décadas construir.
¿Crees que el uso de inteligencia artificial en migración pone en riesgo tus derechos? Compártelo en redes.
Si alguna vez viajaste por un aeropuerto con escaneo facial, ¿te informaron? Cuéntanos tu experiencia.
¿Deberían las tecnologías de control fronterizo estar más reguladas? Participa en la conversación.
N. de la R. Desde su lanzamiento, el programa Biometric Entry-Exit ha sido progresivamente ampliado por la Oficina de Aduanas y Protección Fronteriza (CBP), alcanzando en 2025 una cobertura en 46 aeropuertos de Estados Unidos. Según cifras oficiales, más de 400 millones de viajeros han sido escaneados mediante reconocimiento facial, con una tasa de verificación superior al 98.6%. Sin embargo, informes del propio gobierno reconocen que persisten fallas técnicas y brechas en aeropuertos de alto flujo.
Un informe reciente del Georgetown Center on Privacy & Technology advierte que no existe una legislación federal específica que regule el uso de datos biométricos en contextos migratorios. Aunque la CBP se ampara en la Ley de Inmigración y Nacionalidad, esta no establece parámetros sobre la retención, destrucción o límites de uso de los datos recopilados. Además, los viajeros no ciudadanos, que representan hasta el 15% del total, no cuentan con protección constitucional plena, lo que intensifica las preocupaciones legales.
El más reciente estudio del National Institute of Standards and Technology (NIST), publicado en 2024, confirma que los algoritmos de reconocimiento facial continúan mostrando sesgos significativos. En particular, las tasas de falsos positivos siguen siendo entre 5 y 10 veces más altas en mujeres negras y personas de origen asiático que en hombres blancos, lo que cuestiona la imparcialidad de estas herramientas al aplicarse en controles fronterizos.
Respecto al sistema de análisis de comportamiento predictivo conocido como Traveler Assessment Program (TAP), actualmente en fase piloto en los aeropuertos de Atlanta, Miami y Chicago-O’Hare, documentos internos revelados por medios especializados señalan la falta de lineamientos claros para interpretar los perfiles generados por IA. No existen protocolos publicados sobre cómo corregir o eliminar estos perfiles, ni mecanismos de apelación disponibles para los pasajeros afectados.
En 2025, la Oficina de Responsabilidad Gubernamental (GAO) reiteró que la CBP no ha cumplido con los compromisos asumidos ante el Congreso sobre auditorías independientes y estudios de impacto social. Además, señaló que no se ha consultado a comunidades vulnerables ni se ha sometido la implementación de estas tecnologías a revisión de organismos civiles especializados, lo que contraviene principios de gobernanza tecnológica responsable promovidos por la Casa Blanca.
En el contexto internacional, la Unión Europea se encuentra en proceso de aprobación final del AI Act, un reglamento que considera el reconocimiento facial en espacios públicos como una tecnología de “alto riesgo” y restringe su uso salvo bajo condiciones estrictas de proporcionalidad y necesidad. Esta divergencia regulatoria entre Europa y Estados Unidos anticipa posibles conflictos en vuelos transatlánticos o acuerdos de intercambio de datos biométricos.
Por último, una auditoría del Center for Democracy & Technology advierte que en la mayoría de los aeropuertos donde se utiliza reconocimiento facial para embarque, los pasajeros no reciben información adecuada sobre su derecho a rechazar el escaneo. En más del 70% de los casos analizados, no se ofreció una alternativa explícita, lo que pone en entredicho el principio de consentimiento informado.
Fuentes consultadas:
U.S. Customs and Border Protection – Biometric Entry-Exit Program
Georgetown Law Center on Privacy & Technology – The Perpetual Line-Up
National Institute of Standards and Technology (NIST) – Face Recognition Vendor Test, 2019
Government Accountability Office (GAO) – Facial Recognition Technology: CBP and TSA
EL EDITOR RECOMIENDA



