Tecnología de reconocimiento facial y sus riesgos en los derechos humanos

Autores/as

  • Jesús E. Sanabria Moyano Universidad Militar Nueva Granada, Colombia https://orcid.org/0000-0001-9715-5305
  • Marcela del Pilar Roa Avella Universidad Militar Nueva Granada, Colombia
  • Oscar Iván Lee Pérez Universidad Militar Nueva Granada, Colombia

DOI:

https://doi.org/10.47741/17943108.366

Palabras clave:

Control social, derechos humanos, Inteligencia artificial, Garantías constitucionales, herramientas de reconocimiento facial, riesgos

Resumen

El desarrollo de tecnologías dinamizadas por la inteligencia artificial (IA) representa un desafío adaptativo para ciencias tradicionales y rígidas como el derecho. Debido a las características de los diversos métodos o procedimientos usados de forma automatizada, se presenta una relación antagónica entre implementación de herramientas de reconocimiento facial y los derechos considerados garantías constitucionales y fundamentales en el sistema de derechos humanos. El objetivo es describir el funcionamiento de los sistemas de visión involucrados en la IA, presente principalmente en las herramientas de reconocimiento facial, examinando la manera como se relacionan con el derecho penal y reconociendo los riesgos a los derechos humanos en este proceso. Para ello, se usó una metodología cualitativa-inductiva, realizando análisis de fuentes primarias y secundarias, estudios de caso y legislaciones de diversas jurisdicciones relacionadas con reconocimiento facial y su aplicación en las etapas de indagación e investigación en el proceso penal. Como resultado se obtuvo que en dichas etapas existe un riesgo a las garantías de un debido proceso y de no discriminación.

Descargas

Los datos de descargas todavía no están disponibles.

Citas

Álvarez-Gayou J. L., Camacho, S. M., Maldonado, G., Trejo C. A., Olguín, A., & Pérez M. (2014). La investigación cualitativa. https://www.uaeh.edu.mx/scige/boletin/tlahuelilpan/n3/e2.html

Amnistía Internacional (2021, 11 de junio). Amnistía Internacional pide que se prohíba el uso de tecnología de reconocimiento facial con fines de vigilancia masiva. https://bit.ly/3DM2Nr9

Bauman, Z. (2000). Modernidad líquida. Fondo de Cultura Económica de Argentina.

Bauman, Z. & Lyon, D. (2013). Vigilancia líquida. Paidós.

Beltrán, V., & Preminger D. (2020). Inteligencia artificial en el sistema de justicia criminal: Algunas reflexiones sobre su aplicación en el derecho chileno. Revista de Derecho Aplicado, 5(5), 1-17. https://doi.org/10.7764/rda.0.5.9996

Bentham, J. (1979). Genealogía del poder. El Panóptico. Ediciones la Piqueta.

Beriain, I. de M., & Pérez, M. J. (2019). La inteligencia artificial en el proceso penal español un echnolo de su admisibilidad sobre la base de los derechos fundamentales implicados. RDUNED. Revista de Derecho UNED, (25), 531-561.

Cáceres, A. M. (2021). El impacto de la inteligencia artificial en el Derecho. Advocatus, (39), 39-71. https://doi.org/10.26439/advocatus2021.n39.5117

Cachemira, C. D. (2020, junio). Wrongfully accused by an algorithm. The New York Times, http://nytimes.com/2020/06/24/technology/facial-recognition-arrest.html

Clérico, L. (2018). Derechos y proporcionalidad: violaciones por acción, por insuficiencia y por regresión Miradas locales, interamericanas y comparadas. Instituto de Estudios Constitucionales del Estado de Querétaro.

Comisión Europea —CE (2019). Comunicación de la comisión al parlamento europeo (COM 2019 640 final). Autor. https://bit.ly/3y77J6v

Convención Americana sobre Derechos Humanos. Art. 27 y 30, 7 al 22 de noviembre de 1969 (San Jose de Costa Rica).

Díaz Rodríguez, V. (Junio de 2013). Sistemas Biométricos en materia criminal: un estudio comparado. Revista del Instituto de Ciencias Jurídicas de Puebla, 7(31), 28-47. https://doi.org/10.35487/rius.v7i31.2013.19

Foucault, M. (2002). Vigilar y castigar. Siglo XXI.

Garvie, C., & Frankle, J. (abril de 2016). The Atlantic. https://apexart.org/images/breiner/articles/FacialRecognitionSoftwareMight.pdf

Gershgorn, D. (2020, 05 de marzo). OneZero. https://onezero.medium.com/exclusive-livefacial-recognition-is-coming-to-u-s-policebody-cameras-bc9036918ae0

Gómez, D. R., & Roquet, J. V. (2009). Univerisdad de Catalunya. Metodología de la investigación, Univerisdad de Catalunya. https://bit.ly/3UHlUIm

Gozaíni, O. A. (2012). Pruebas científicas y verdad. Derecho & Sociedad Asociación Civil, (38), 169-175.

Grajales, J. F., & Marín, M. S. (2017). El panóptico más allá de vigilar y castigar. Revista Kavilando, 9(2), 511-529.

Grother, P., Ngan, M., & Hanaoka, K. (2019, diciembre). National institute of standards and technology. https://nvlpubs.nist.gov/nistpubs/ir/2019/NIST.IR.8280.pdf

Hernández, R. G. (2010, julio). Estudio de técnicas de reconocimiento facial (Tesis de grado, Universidad Politécnica de Cataluña). http://hdl.handle.net/2099.1/9782

Jee, C. (2019, 04 de julio). London police’s face recognition system gets it wrong 81% of the time. MIT Technology Review. https://bit.ly/3LE4KYv

Jiménez, A. G. (2017, 27 de marzo). Reconocimiento facial: un reto jurídico en la protección de derechos fundamentales. https://bit.ly/3BCxFrx

Kour, H., & Gondhi, N. (2020). Machine learning techniques. A survey. En J. Raj, A. Bashar y S. Ramson (Eds.), Innovative Data Communication Technologies and Application. ICIDCA 2019 (Lecture Notes on Data Engineering and Communications Technologies, vol 46, pp. 226-275). Springer, Cham. https://doi.org/10.1007/978-3-030-38040-3_31

Mata, F. B. (diciembre de 2020). BIOMETRÍA E INVESTIGACIÓN CRIMINAL. Revista Eletrônica de Direito Processual – REDP., 21(3), 121-125. https://www.e-publicacoes.uerj.br/index.php/redp/article/view/54200/34874

Manthorpe, R., & Martin, A. (2019 04 de julio). 81% of ‘suspects’ flagged by Met’s police facial recognition technology innocent, independent report says. Sky News. https://bit.ly/2J8Jj3h

Matin, N. B. (2019). Algoritmos predictivos al servicio de la justicia. ¿Una nueva forma de minimizar el riesgo y la incertidumbre? Revista de Facultade Mineira de Dereito, 22(43), 1-31.

Meijer, A., & Wessel, M. (2019). Predictive Policing: Review of Benefits and Drawbacks. International Journal of Public Administration, 42(12), 1031-1039. https://doi.org/10.1080/01900692.2019.1575664

Michigan State Police (2019, septiembre). Facial recognition – Frequently asked questions. Last revised: June 2022. https://bit.ly/3ixizOl

Müggenburg, M., & Pérez, I. (2007). Tipos de estudio en el enfoque de investigación cuantitativa. Revista de Enfermería Universitaria, 4(1), 35-38.

Pérez, E. (2020, junio). 30 horas detenido por el error de un algoritmo: primer caso de un hombre falsamente acusado por el reconocimiento facial. https://bit.ly/3ZxE6am

Perrigo, B. (2020, 24 de enero). London Police to deploy facial recognition cameras despite privacy concerns and evidence of high failure rate. Diario Time. https://time.com/5770976/london-facial-recognition-police/

Plus, D. W. (2022). dataworksplus.com. https://www.dataworksplus.com/bioid.html#face

Ragas, J. (2020). La batalla por los rostros: el sistema de reconocimiento facial en el contexto del “estallido social” chileno. Revista Chilena de Estudios Latinoamericanos, (14), 1-12.

Redacción Asociación para el Progreso de la Dirección—APD. (2019, 04 de marzo). Qué es machine learning. https://www.apd.es/que-es-machinelearning/

Rescia, V. M. (1998). El debido proceso legal y la convención americana sobre derechos humanos. https://www.corteidh.or.cr/tablas/a17762.pdf

Richardson, R., Schultz, J., & Crawford, K. (mayo de 2019). Dirty Data, Bad Predictions: How Civil Rights Violations Impact Police Data, Predictive Policing Systems, and Justice. New York University Law Review, 94, 193-228. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3333423

Rojas, C. V. (2014). Sobre la cientificidad de la prueba científica en el proceso judicial. Anuario de Psicología Jurídica, 24(1), 65-73. https://doi.org/10.1016/j.apj.2014.09.001

Romeo-Casabona, C. M. (2018). Riesgo, procedimientos actuariales basados en inteligencia artificial y medidas de seguridad. Revista Derecho Empresa y Sociedad, (13), 165-179.

Romine, C. H. (15 de enero de 2020). Instituto Nacional de Estandares y Tecnologia. Instituto Nacional de Estandares y Tecnologia. https://www.nist.gov/speech-testimony/facial-recognitiontechnology-part-iii-ensuring-commercialtransparency-accuracy

Scantamburlo, T., Charlesworth A., & Cristianini, N. (2019). Machine decisions and human consequences. https://arxiv.org/ftp/arxiv/papers/1811/1811.06747.pdf

SecureWeek (2019 19 de agosto). Las ciudades más vigiladas del mundo. https://www.secureweek.com/las-ciudades-mas-vigiladas-del-mundo/

Voss, A., Hohlmeier, M., Gál, K., & Boni, M. (2016, 17 de junio). Personal data transfers to China - what protection for EU citizens?https://www.europarl.europa.eu/doceo/document/O-8-2016-000091_EN.html

Wakefield, J. (2018, 20 de junio). Así funciona “la mente” de Norman, el algoritmo psicópata del MIT que solo ve lo más tenebroso de la red. BBC Mundo. https://www.bbc.com/mundo/noticias-44482471

Worthy, K. L. (2020). WCPO statement in response to New York Times article wrongfully accused by an algorithm, June 24, 2020. https://www.nytimes.com/2020/06/24/technology/facialrecognition-arrest.html

Publicado

2023-01-16

Cómo citar

Sanabria Moyano, J. E. ., Roa Avella, M. del P., & Lee Pérez, O. I. . (2023). Tecnología de reconocimiento facial y sus riesgos en los derechos humanos. Revista Criminalidad, 64(3), 61–78. https://doi.org/10.47741/17943108.366

Número

Sección

Estudios criminológicos