Facial recognition technology and its risks to human rights

Authors

  • Jesús E. Sanabria Moyano Universidad Militar Nueva Granada, Colombia https://orcid.org/0000-0001-9715-5305
  • Marcela del Pilar Roa Avella Universidad Militar Nueva Granada, Colombia
  • Oscar Iván Lee Pérez Universidad Militar Nueva Granada, Colombia

DOI:

https://doi.org/10.47741/17943108.366

Keywords:

Social control, human rights, Artificial intelligence, Constitutional guarantees, facial recognition tools, risk

Abstract

The development of technologies powered by artificial intelligence (AI) represents an adaptive challenge for traditional and rigid sciences such as law. Due to the characteristics of the various methods or procedures used in an automated way, there is an antagonistic relationship between the implementation of facial recognition tools and the rights considered constitutional and fundamental guarantees in the human rights system. The objective is to describe the functioning of the vision systems involved in AI, mainly present in facial recognition tools, examining how they relate to criminal law and recognizing the risks to human rights in this process. For this purpose, a qualitative inductive methodology was used, analyzing primary and secondary sources, case studies and legislation from various jurisdictions related to facial recognition and its application in the investigation and inquiry stages of the criminal process. As a result, it was obtained that in such stages there is a risk to the guarantees of due process and non-discrimination.

Downloads

Download data is not yet available.

References

Álvarez-Gayou J. L., Camacho, S. M., Maldonado, G., Trejo C. A., Olguín, A., & Pérez M. (2014). La investigación cualitativa. https://www.uaeh.edu.mx/scige/boletin/tlahuelilpan/n3/e2.html

Amnistía Internacional (2021, 11 de junio). Amnistía Internacional pide que se prohíba el uso de tecnología de reconocimiento facial con fines de vigilancia masiva. https://bit.ly/3DM2Nr9

Bauman, Z. (2000). Modernidad líquida. Fondo de Cultura Económica de Argentina.

Bauman, Z. & Lyon, D. (2013). Vigilancia líquida. Paidós.

Beltrán, V., & Preminger D. (2020). Inteligencia artificial en el sistema de justicia criminal: Algunas reflexiones sobre su aplicación en el derecho chileno. Revista de Derecho Aplicado, 5(5), 1-17. https://doi.org/10.7764/rda.0.5.9996

Bentham, J. (1979). Genealogía del poder. El Panóptico. Ediciones la Piqueta.

Beriain, I. de M., & Pérez, M. J. (2019). La inteligencia artificial en el proceso penal español un echnolo de su admisibilidad sobre la base de los derechos fundamentales implicados. RDUNED. Revista de Derecho UNED, (25), 531-561.

Cáceres, A. M. (2021). El impacto de la inteligencia artificial en el Derecho. Advocatus, (39), 39-71. https://doi.org/10.26439/advocatus2021.n39.5117

Cachemira, C. D. (2020, junio). Wrongfully accused by an algorithm. The New York Times, http://nytimes.com/2020/06/24/technology/facial-recognition-arrest.html

Clérico, L. (2018). Derechos y proporcionalidad: violaciones por acción, por insuficiencia y por regresión Miradas locales, interamericanas y comparadas. Instituto de Estudios Constitucionales del Estado de Querétaro.

Comisión Europea —CE (2019). Comunicación de la comisión al parlamento europeo (COM 2019 640 final). Autor. https://bit.ly/3y77J6v

Convención Americana sobre Derechos Humanos. Art. 27 y 30, 7 al 22 de noviembre de 1969 (San Jose de Costa Rica).

Díaz Rodríguez, V. (Junio de 2013). Sistemas Biométricos en materia criminal: un estudio comparado. Revista del Instituto de Ciencias Jurídicas de Puebla, 7(31), 28-47. https://doi.org/10.35487/rius.v7i31.2013.19

Foucault, M. (2002). Vigilar y castigar. Siglo XXI.

Garvie, C., & Frankle, J. (abril de 2016). The Atlantic. https://apexart.org/images/breiner/articles/FacialRecognitionSoftwareMight.pdf

Gershgorn, D. (2020, 05 de marzo). OneZero. https://onezero.medium.com/exclusive-livefacial-recognition-is-coming-to-u-s-policebody-cameras-bc9036918ae0

Gómez, D. R., & Roquet, J. V. (2009). Univerisdad de Catalunya. Metodología de la investigación, Univerisdad de Catalunya. https://bit.ly/3UHlUIm

Gozaíni, O. A. (2012). Pruebas científicas y verdad. Derecho & Sociedad Asociación Civil, (38), 169-175.

Grajales, J. F., & Marín, M. S. (2017). El panóptico más allá de vigilar y castigar. Revista Kavilando, 9(2), 511-529.

Grother, P., Ngan, M., & Hanaoka, K. (2019, diciembre). National institute of standards and technology. https://nvlpubs.nist.gov/nistpubs/ir/2019/NIST.IR.8280.pdf

Hernández, R. G. (2010, julio). Estudio de técnicas de reconocimiento facial (Tesis de grado, Universidad Politécnica de Cataluña). http://hdl.handle.net/2099.1/9782

Jee, C. (2019, 04 de julio). London police’s face recognition system gets it wrong 81% of the time. MIT Technology Review. https://bit.ly/3LE4KYv

Jiménez, A. G. (2017, 27 de marzo). Reconocimiento facial: un reto jurídico en la protección de derechos fundamentales. https://bit.ly/3BCxFrx

Kour, H., & Gondhi, N. (2020). Machine learning techniques. A survey. En J. Raj, A. Bashar y S. Ramson (Eds.), Innovative Data Communication Technologies and Application. ICIDCA 2019 (Lecture Notes on Data Engineering and Communications Technologies, vol 46, pp. 226-275). Springer, Cham. https://doi.org/10.1007/978-3-030-38040-3_31

Mata, F. B. (diciembre de 2020). BIOMETRÍA E INVESTIGACIÓN CRIMINAL. Revista Eletrônica de Direito Processual – REDP., 21(3), 121-125. https://www.e-publicacoes.uerj.br/index.php/redp/article/view/54200/34874

Manthorpe, R., & Martin, A. (2019 04 de julio). 81% of ‘suspects’ flagged by Met’s police facial recognition technology innocent, independent report says. Sky News. https://bit.ly/2J8Jj3h

Matin, N. B. (2019). Algoritmos predictivos al servicio de la justicia. ¿Una nueva forma de minimizar el riesgo y la incertidumbre? Revista de Facultade Mineira de Dereito, 22(43), 1-31.

Meijer, A., & Wessel, M. (2019). Predictive Policing: Review of Benefits and Drawbacks. International Journal of Public Administration, 42(12), 1031-1039. https://doi.org/10.1080/01900692.2019.1575664

Michigan State Police (2019, septiembre). Facial recognition – Frequently asked questions. Last revised: June 2022. https://bit.ly/3ixizOl

Müggenburg, M., & Pérez, I. (2007). Tipos de estudio en el enfoque de investigación cuantitativa. Revista de Enfermería Universitaria, 4(1), 35-38.

Pérez, E. (2020, junio). 30 horas detenido por el error de un algoritmo: primer caso de un hombre falsamente acusado por el reconocimiento facial. https://bit.ly/3ZxE6am

Perrigo, B. (2020, 24 de enero). London Police to deploy facial recognition cameras despite privacy concerns and evidence of high failure rate. Diario Time. https://time.com/5770976/london-facial-recognition-police/

Plus, D. W. (2022). dataworksplus.com. https://www.dataworksplus.com/bioid.html#face

Ragas, J. (2020). La batalla por los rostros: el sistema de reconocimiento facial en el contexto del “estallido social” chileno. Revista Chilena de Estudios Latinoamericanos, (14), 1-12.

Redacción Asociación para el Progreso de la Dirección—APD. (2019, 04 de marzo). Qué es machine learning. https://www.apd.es/que-es-machinelearning/

Rescia, V. M. (1998). El debido proceso legal y la convención americana sobre derechos humanos. https://www.corteidh.or.cr/tablas/a17762.pdf

Richardson, R., Schultz, J., & Crawford, K. (mayo de 2019). Dirty Data, Bad Predictions: How Civil Rights Violations Impact Police Data, Predictive Policing Systems, and Justice. New York University Law Review, 94, 193-228. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3333423

Rojas, C. V. (2014). Sobre la cientificidad de la prueba científica en el proceso judicial. Anuario de Psicología Jurídica, 24(1), 65-73. https://doi.org/10.1016/j.apj.2014.09.001

Romeo-Casabona, C. M. (2018). Riesgo, procedimientos actuariales basados en inteligencia artificial y medidas de seguridad. Revista Derecho Empresa y Sociedad, (13), 165-179.

Romine, C. H. (15 de enero de 2020). Instituto Nacional de Estandares y Tecnologia. Instituto Nacional de Estandares y Tecnologia. https://www.nist.gov/speech-testimony/facial-recognitiontechnology-part-iii-ensuring-commercialtransparency-accuracy

Scantamburlo, T., Charlesworth A., & Cristianini, N. (2019). Machine decisions and human consequences. https://arxiv.org/ftp/arxiv/papers/1811/1811.06747.pdf

SecureWeek (2019 19 de agosto). Las ciudades más vigiladas del mundo. https://www.secureweek.com/las-ciudades-mas-vigiladas-del-mundo/

Voss, A., Hohlmeier, M., Gál, K., & Boni, M. (2016, 17 de junio). Personal data transfers to China - what protection for EU citizens?https://www.europarl.europa.eu/doceo/document/O-8-2016-000091_EN.html

Wakefield, J. (2018, 20 de junio). Así funciona “la mente” de Norman, el algoritmo psicópata del MIT que solo ve lo más tenebroso de la red. BBC Mundo. https://www.bbc.com/mundo/noticias-44482471

Worthy, K. L. (2020). WCPO statement in response to New York Times article wrongfully accused by an algorithm, June 24, 2020. https://www.nytimes.com/2020/06/24/technology/facialrecognition-arrest.html

Published

2023-01-16

How to Cite

Sanabria Moyano, J. E. ., Roa Avella, M. del P., & Lee Pérez, O. I. . (2023). Facial recognition technology and its risks to human rights. Revista Criminalidad, 64(3), 61–78. https://doi.org/10.47741/17943108.366

Issue

Section

Criminological studies