Facial recognition technology and its risks to human rights
DOI:
https://doi.org/10.47741/17943108.366Keywords:
Social control, human rights, Artificial intelligence, Constitutional guarantees, facial recognition tools, riskAbstract
The development of technologies powered by artificial intelligence (AI) represents an adaptive challenge for traditional and rigid sciences such as law. Due to the characteristics of the various methods or procedures used in an automated way, there is an antagonistic relationship between the implementation of facial recognition tools and the rights considered constitutional and fundamental guarantees in the human rights system. The objective is to describe the functioning of the vision systems involved in AI, mainly present in facial recognition tools, examining how they relate to criminal law and recognizing the risks to human rights in this process. For this purpose, a qualitative inductive methodology was used, analyzing primary and secondary sources, case studies and legislation from various jurisdictions related to facial recognition and its application in the investigation and inquiry stages of the criminal process. As a result, it was obtained that in such stages there is a risk to the guarantees of due process and non-discrimination.
Downloads
References
Álvarez-Gayou J. L., Camacho, S. M., Maldonado, G., Trejo C. A., Olguín, A., & Pérez M. (2014). La investigación cualitativa. https://www.uaeh.edu.mx/scige/boletin/tlahuelilpan/n3/e2.html
Amnistía Internacional (2021, 11 de junio). Amnistía Internacional pide que se prohíba el uso de tecnología de reconocimiento facial con fines de vigilancia masiva. https://bit.ly/3DM2Nr9
Bauman, Z. (2000). Modernidad líquida. Fondo de Cultura Económica de Argentina.
Bauman, Z. & Lyon, D. (2013). Vigilancia líquida. Paidós.
Beltrán, V., & Preminger D. (2020). Inteligencia artificial en el sistema de justicia criminal: Algunas reflexiones sobre su aplicación en el derecho chileno. Revista de Derecho Aplicado, 5(5), 1-17. https://doi.org/10.7764/rda.0.5.9996
Bentham, J. (1979). Genealogía del poder. El Panóptico. Ediciones la Piqueta.
Beriain, I. de M., & Pérez, M. J. (2019). La inteligencia artificial en el proceso penal español un echnolo de su admisibilidad sobre la base de los derechos fundamentales implicados. RDUNED. Revista de Derecho UNED, (25), 531-561.
Cáceres, A. M. (2021). El impacto de la inteligencia artificial en el Derecho. Advocatus, (39), 39-71. https://doi.org/10.26439/advocatus2021.n39.5117
Cachemira, C. D. (2020, junio). Wrongfully accused by an algorithm. The New York Times, http://nytimes.com/2020/06/24/technology/facial-recognition-arrest.html
Clérico, L. (2018). Derechos y proporcionalidad: violaciones por acción, por insuficiencia y por regresión Miradas locales, interamericanas y comparadas. Instituto de Estudios Constitucionales del Estado de Querétaro.
Comisión Europea —CE (2019). Comunicación de la comisión al parlamento europeo (COM 2019 640 final). Autor. https://bit.ly/3y77J6v
Convención Americana sobre Derechos Humanos. Art. 27 y 30, 7 al 22 de noviembre de 1969 (San Jose de Costa Rica).
Díaz Rodríguez, V. (Junio de 2013). Sistemas Biométricos en materia criminal: un estudio comparado. Revista del Instituto de Ciencias Jurídicas de Puebla, 7(31), 28-47. https://doi.org/10.35487/rius.v7i31.2013.19
Foucault, M. (2002). Vigilar y castigar. Siglo XXI.
Garvie, C., & Frankle, J. (abril de 2016). The Atlantic. https://apexart.org/images/breiner/articles/FacialRecognitionSoftwareMight.pdf
Gershgorn, D. (2020, 05 de marzo). OneZero. https://onezero.medium.com/exclusive-livefacial-recognition-is-coming-to-u-s-policebody-cameras-bc9036918ae0
Gómez, D. R., & Roquet, J. V. (2009). Univerisdad de Catalunya. Metodología de la investigación, Univerisdad de Catalunya. https://bit.ly/3UHlUIm
Gozaíni, O. A. (2012). Pruebas científicas y verdad. Derecho & Sociedad Asociación Civil, (38), 169-175.
Grajales, J. F., & Marín, M. S. (2017). El panóptico más allá de vigilar y castigar. Revista Kavilando, 9(2), 511-529.
Grother, P., Ngan, M., & Hanaoka, K. (2019, diciembre). National institute of standards and technology. https://nvlpubs.nist.gov/nistpubs/ir/2019/NIST.IR.8280.pdf
Hernández, R. G. (2010, julio). Estudio de técnicas de reconocimiento facial (Tesis de grado, Universidad Politécnica de Cataluña). http://hdl.handle.net/2099.1/9782
Jee, C. (2019, 04 de julio). London police’s face recognition system gets it wrong 81% of the time. MIT Technology Review. https://bit.ly/3LE4KYv
Jiménez, A. G. (2017, 27 de marzo). Reconocimiento facial: un reto jurídico en la protección de derechos fundamentales. https://bit.ly/3BCxFrx
Kour, H., & Gondhi, N. (2020). Machine learning techniques. A survey. En J. Raj, A. Bashar y S. Ramson (Eds.), Innovative Data Communication Technologies and Application. ICIDCA 2019 (Lecture Notes on Data Engineering and Communications Technologies, vol 46, pp. 226-275). Springer, Cham. https://doi.org/10.1007/978-3-030-38040-3_31
Mata, F. B. (diciembre de 2020). BIOMETRÍA E INVESTIGACIÓN CRIMINAL. Revista Eletrônica de Direito Processual – REDP., 21(3), 121-125. https://www.e-publicacoes.uerj.br/index.php/redp/article/view/54200/34874
Manthorpe, R., & Martin, A. (2019 04 de julio). 81% of ‘suspects’ flagged by Met’s police facial recognition technology innocent, independent report says. Sky News. https://bit.ly/2J8Jj3h
Matin, N. B. (2019). Algoritmos predictivos al servicio de la justicia. ¿Una nueva forma de minimizar el riesgo y la incertidumbre? Revista de Facultade Mineira de Dereito, 22(43), 1-31.
Meijer, A., & Wessel, M. (2019). Predictive Policing: Review of Benefits and Drawbacks. International Journal of Public Administration, 42(12), 1031-1039. https://doi.org/10.1080/01900692.2019.1575664
Michigan State Police (2019, septiembre). Facial recognition – Frequently asked questions. Last revised: June 2022. https://bit.ly/3ixizOl
Müggenburg, M., & Pérez, I. (2007). Tipos de estudio en el enfoque de investigación cuantitativa. Revista de Enfermería Universitaria, 4(1), 35-38.
Pérez, E. (2020, junio). 30 horas detenido por el error de un algoritmo: primer caso de un hombre falsamente acusado por el reconocimiento facial. https://bit.ly/3ZxE6am
Perrigo, B. (2020, 24 de enero). London Police to deploy facial recognition cameras despite privacy concerns and evidence of high failure rate. Diario Time. https://time.com/5770976/london-facial-recognition-police/
Plus, D. W. (2022). dataworksplus.com. https://www.dataworksplus.com/bioid.html#face
Ragas, J. (2020). La batalla por los rostros: el sistema de reconocimiento facial en el contexto del “estallido social” chileno. Revista Chilena de Estudios Latinoamericanos, (14), 1-12.
Redacción Asociación para el Progreso de la Dirección—APD. (2019, 04 de marzo). Qué es machine learning. https://www.apd.es/que-es-machinelearning/
Rescia, V. M. (1998). El debido proceso legal y la convención americana sobre derechos humanos. https://www.corteidh.or.cr/tablas/a17762.pdf
Richardson, R., Schultz, J., & Crawford, K. (mayo de 2019). Dirty Data, Bad Predictions: How Civil Rights Violations Impact Police Data, Predictive Policing Systems, and Justice. New York University Law Review, 94, 193-228. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3333423
Rojas, C. V. (2014). Sobre la cientificidad de la prueba científica en el proceso judicial. Anuario de Psicología Jurídica, 24(1), 65-73. https://doi.org/10.1016/j.apj.2014.09.001
Romeo-Casabona, C. M. (2018). Riesgo, procedimientos actuariales basados en inteligencia artificial y medidas de seguridad. Revista Derecho Empresa y Sociedad, (13), 165-179.
Romine, C. H. (15 de enero de 2020). Instituto Nacional de Estandares y Tecnologia. Instituto Nacional de Estandares y Tecnologia. https://www.nist.gov/speech-testimony/facial-recognitiontechnology-part-iii-ensuring-commercialtransparency-accuracy
Scantamburlo, T., Charlesworth A., & Cristianini, N. (2019). Machine decisions and human consequences. https://arxiv.org/ftp/arxiv/papers/1811/1811.06747.pdf
SecureWeek (2019 19 de agosto). Las ciudades más vigiladas del mundo. https://www.secureweek.com/las-ciudades-mas-vigiladas-del-mundo/
Voss, A., Hohlmeier, M., Gál, K., & Boni, M. (2016, 17 de junio). Personal data transfers to China - what protection for EU citizens?https://www.europarl.europa.eu/doceo/document/O-8-2016-000091_EN.html
Wakefield, J. (2018, 20 de junio). Así funciona “la mente” de Norman, el algoritmo psicópata del MIT que solo ve lo más tenebroso de la red. BBC Mundo. https://www.bbc.com/mundo/noticias-44482471
Worthy, K. L. (2020). WCPO statement in response to New York Times article wrongfully accused by an algorithm, June 24, 2020. https://www.nytimes.com/2020/06/24/technology/facialrecognition-arrest.html
Published
How to Cite
Issue
Section
License
Copyright (c) 2023 Revista Criminalidad
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.
Licencia creative commons CC BY NC ND https://creativecommons.org/licenses/by-nc-nd/2.0/