A tecnologia de reconhecimento facial e seus riscos para os direitos humanos

Autores

  • Jesús E. Sanabria Moyano Universidad Militar Nueva Granada, Colombia https://orcid.org/0000-0001-9715-5305
  • Marcela del Pilar Roa Avella Universidad Militar Nueva Granada, Colombia
  • Oscar Iván Lee Pérez Universidad Militar Nueva Granada, Colombia

DOI:

https://doi.org/10.47741/17943108.366

Palavras-chave:

Controle social, derechos humanos, Inteligência artificial, Garantias constitucionais, ferramentas de reconhecimento facial, riscos

Resumo

O desenvolvimento de tecnologias impulsionadas pela inteligência artificial (IA) representa um desafio adaptativo para as ciências tradicionais e rígidas, como o direito. Devido às características dos vários métodos ou procedimentos utilizados de forma automatizada, existe uma relação antagônica entre a implementação de ferramentas de reconhecimento facial e os direitos considerados garantias constitucionais e fundamentais no sistema de direitos humanos. O objetivo é descrever o funcionamento dos sistemas de visão envolvidos na IA, principalmente presentes nas ferramentas de reconhecimento facial, examinando como eles se relacionam com o direito penal e reconhecendo os riscos aos direitos humanos neste processo. Para este fim, foi utilizada uma metodologia qualitativa-indutora, analisando
fontes primárias e secundárias, estudos de casos e legislação de várias jurisdições relacionadas ao reconhecimento facial e sua aplicação nas fases de investigação e inquérito de processos criminais. Como resultado, foi obtido que nestas etapas há um risco para as garantias de um processo justo e não-discriminação.

Downloads

Não há dados estatísticos.

Referências

Álvarez-Gayou J. L., Camacho, S. M., Maldonado, G., Trejo C. A., Olguín, A., & Pérez M. (2014). La investigación cualitativa. https://www.uaeh.edu.mx/scige/boletin/tlahuelilpan/n3/e2.html

Amnistía Internacional (2021, 11 de junio). Amnistía Internacional pide que se prohíba el uso de tecnología de reconocimiento facial con fines de vigilancia masiva. https://bit.ly/3DM2Nr9

Bauman, Z. (2000). Modernidad líquida. Fondo de Cultura Económica de Argentina.

Bauman, Z. & Lyon, D. (2013). Vigilancia líquida. Paidós.

Beltrán, V., & Preminger D. (2020). Inteligencia artificial en el sistema de justicia criminal: Algunas reflexiones sobre su aplicación en el derecho chileno. Revista de Derecho Aplicado, 5(5), 1-17. https://doi.org/10.7764/rda.0.5.9996

Bentham, J. (1979). Genealogía del poder. El Panóptico. Ediciones la Piqueta.

Beriain, I. de M., & Pérez, M. J. (2019). La inteligencia artificial en el proceso penal español un echnolo de su admisibilidad sobre la base de los derechos fundamentales implicados. RDUNED. Revista de Derecho UNED, (25), 531-561.

Cáceres, A. M. (2021). El impacto de la inteligencia artificial en el Derecho. Advocatus, (39), 39-71. https://doi.org/10.26439/advocatus2021.n39.5117

Cachemira, C. D. (2020, junio). Wrongfully accused by an algorithm. The New York Times, http://nytimes.com/2020/06/24/technology/facial-recognition-arrest.html

Clérico, L. (2018). Derechos y proporcionalidad: violaciones por acción, por insuficiencia y por regresión Miradas locales, interamericanas y comparadas. Instituto de Estudios Constitucionales del Estado de Querétaro.

Comisión Europea —CE (2019). Comunicación de la comisión al parlamento europeo (COM 2019 640 final). Autor. https://bit.ly/3y77J6v

Convención Americana sobre Derechos Humanos. Art. 27 y 30, 7 al 22 de noviembre de 1969 (San Jose de Costa Rica).

Díaz Rodríguez, V. (Junio de 2013). Sistemas Biométricos en materia criminal: un estudio comparado. Revista del Instituto de Ciencias Jurídicas de Puebla, 7(31), 28-47. https://doi.org/10.35487/rius.v7i31.2013.19

Foucault, M. (2002). Vigilar y castigar. Siglo XXI.

Garvie, C., & Frankle, J. (abril de 2016). The Atlantic. https://apexart.org/images/breiner/articles/FacialRecognitionSoftwareMight.pdf

Gershgorn, D. (2020, 05 de marzo). OneZero. https://onezero.medium.com/exclusive-livefacial-recognition-is-coming-to-u-s-policebody-cameras-bc9036918ae0

Gómez, D. R., & Roquet, J. V. (2009). Univerisdad de Catalunya. Metodología de la investigación, Univerisdad de Catalunya. https://bit.ly/3UHlUIm

Gozaíni, O. A. (2012). Pruebas científicas y verdad. Derecho & Sociedad Asociación Civil, (38), 169-175.

Grajales, J. F., & Marín, M. S. (2017). El panóptico más allá de vigilar y castigar. Revista Kavilando, 9(2), 511-529.

Grother, P., Ngan, M., & Hanaoka, K. (2019, diciembre). National institute of standards and technology. https://nvlpubs.nist.gov/nistpubs/ir/2019/NIST.IR.8280.pdf

Hernández, R. G. (2010, julio). Estudio de técnicas de reconocimiento facial (Tesis de grado, Universidad Politécnica de Cataluña). http://hdl.handle.net/2099.1/9782

Jee, C. (2019, 04 de julio). London police’s face recognition system gets it wrong 81% of the time. MIT Technology Review. https://bit.ly/3LE4KYv

Jiménez, A. G. (2017, 27 de marzo). Reconocimiento facial: un reto jurídico en la protección de derechos fundamentales. https://bit.ly/3BCxFrx

Kour, H., & Gondhi, N. (2020). Machine learning techniques. A survey. En J. Raj, A. Bashar y S. Ramson (Eds.), Innovative Data Communication Technologies and Application. ICIDCA 2019 (Lecture Notes on Data Engineering and Communications Technologies, vol 46, pp. 226-275). Springer, Cham. https://doi.org/10.1007/978-3-030-38040-3_31

Mata, F. B. (diciembre de 2020). BIOMETRÍA E INVESTIGACIÓN CRIMINAL. Revista Eletrônica de Direito Processual – REDP., 21(3), 121-125. https://www.e-publicacoes.uerj.br/index.php/redp/article/view/54200/34874

Manthorpe, R., & Martin, A. (2019 04 de julio). 81% of ‘suspects’ flagged by Met’s police facial recognition technology innocent, independent report says. Sky News. https://bit.ly/2J8Jj3h

Matin, N. B. (2019). Algoritmos predictivos al servicio de la justicia. ¿Una nueva forma de minimizar el riesgo y la incertidumbre? Revista de Facultade Mineira de Dereito, 22(43), 1-31.

Meijer, A., & Wessel, M. (2019). Predictive Policing: Review of Benefits and Drawbacks. International Journal of Public Administration, 42(12), 1031-1039. https://doi.org/10.1080/01900692.2019.1575664

Michigan State Police (2019, septiembre). Facial recognition – Frequently asked questions. Last revised: June 2022. https://bit.ly/3ixizOl

Müggenburg, M., & Pérez, I. (2007). Tipos de estudio en el enfoque de investigación cuantitativa. Revista de Enfermería Universitaria, 4(1), 35-38.

Pérez, E. (2020, junio). 30 horas detenido por el error de un algoritmo: primer caso de un hombre falsamente acusado por el reconocimiento facial. https://bit.ly/3ZxE6am

Perrigo, B. (2020, 24 de enero). London Police to deploy facial recognition cameras despite privacy concerns and evidence of high failure rate. Diario Time. https://time.com/5770976/london-facial-recognition-police/

Plus, D. W. (2022). dataworksplus.com. https://www.dataworksplus.com/bioid.html#face

Ragas, J. (2020). La batalla por los rostros: el sistema de reconocimiento facial en el contexto del “estallido social” chileno. Revista Chilena de Estudios Latinoamericanos, (14), 1-12.

Redacción Asociación para el Progreso de la Dirección—APD. (2019, 04 de marzo). Qué es machine learning. https://www.apd.es/que-es-machinelearning/

Rescia, V. M. (1998). El debido proceso legal y la convención americana sobre derechos humanos. https://www.corteidh.or.cr/tablas/a17762.pdf

Richardson, R., Schultz, J., & Crawford, K. (mayo de 2019). Dirty Data, Bad Predictions: How Civil Rights Violations Impact Police Data, Predictive Policing Systems, and Justice. New York University Law Review, 94, 193-228. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3333423

Rojas, C. V. (2014). Sobre la cientificidad de la prueba científica en el proceso judicial. Anuario de Psicología Jurídica, 24(1), 65-73. https://doi.org/10.1016/j.apj.2014.09.001

Romeo-Casabona, C. M. (2018). Riesgo, procedimientos actuariales basados en inteligencia artificial y medidas de seguridad. Revista Derecho Empresa y Sociedad, (13), 165-179.

Romine, C. H. (15 de enero de 2020). Instituto Nacional de Estandares y Tecnologia. Instituto Nacional de Estandares y Tecnologia. https://www.nist.gov/speech-testimony/facial-recognitiontechnology-part-iii-ensuring-commercialtransparency-accuracy

Scantamburlo, T., Charlesworth A., & Cristianini, N. (2019). Machine decisions and human consequences. https://arxiv.org/ftp/arxiv/papers/1811/1811.06747.pdf

SecureWeek (2019 19 de agosto). Las ciudades más vigiladas del mundo. https://www.secureweek.com/las-ciudades-mas-vigiladas-del-mundo/

Voss, A., Hohlmeier, M., Gál, K., & Boni, M. (2016, 17 de junio). Personal data transfers to China - what protection for EU citizens?https://www.europarl.europa.eu/doceo/document/O-8-2016-000091_EN.html

Wakefield, J. (2018, 20 de junio). Así funciona “la mente” de Norman, el algoritmo psicópata del MIT que solo ve lo más tenebroso de la red. BBC Mundo. https://www.bbc.com/mundo/noticias-44482471

Worthy, K. L. (2020). WCPO statement in response to New York Times article wrongfully accused by an algorithm, June 24, 2020. https://www.nytimes.com/2020/06/24/technology/facialrecognition-arrest.html

Publicado

2023-01-16

Como Citar

Sanabria Moyano, J. E. ., Roa Avella, M. del P., & Lee Pérez, O. I. . (2023). A tecnologia de reconhecimento facial e seus riscos para os direitos humanos. Revista Criminalidad, 64(3), 61–78. https://doi.org/10.47741/17943108.366

Edição

Seção

Estudos criminológicos