A inteligência artificial e o processo penal
A UTILIZAÇÃO DA TÉCNICA NA VIOLAÇÃO DE DIREITOS
Palabras clave:
algoritmos, discriminação, inteligência artificial, processo penal, violação de direitosResumen
Este artigo apresenta um estudo introdutório sobre como a inteligência artificial pode reproduzir a discriminação e outras violações de direitos na persecução penal. A metodologia do trabalho se ampara na abordagem dialética e a técnica de pesquisa na documentação indireta, especialmente bibliográfica. Como principal conclusão merece ser destacado que diferentemente do que alguns autores sustentam de que a tomada de decisão realizada por procedimentos automatizados seria mais objetiva, consistente e neutra, o que se verifica na prática é que a tomada de decisão orientada por mecanismos que se utilizam de estratégias de emulação do comportamento humano pode resultar na potencialização da violação de direitos. A principal contribuição deste trabalho é demonstrar a necessidade de se reconhecer que o desenvolvimento, a exploração e o uso da inteligência artificial ou de qualquer algoritmo deve acontecer num espaço de comprometimento com o respeito e a promoção dos direitos humanos.
Citas
AÏMEUR, Esma. Human versus artificial intelligence. In: FRONTIERS IN ARTIFICIAL INTELLIGENCE, Soesterberg, 25 mar. 2021. Disponível em: https://www.frontiersin.org/articles/10.3389/frai.2021.622364/full. Acesso em: 25 abr. 2022.
ANDRÉS, Núria. La verdad y la ficción de la inteligencia artificial en el proceso penal. In: FUENTES, Jesús; HOYO, Gregorio (coords.). La justicia digital en España y la Unión Europea. Barcelona: Atelier, 2019. p. 31-39.
ANGWIN, Julia; JEFF, Larson; MATTU, Surya; KIRCHNER, Lauren. Machine Bias: there’s software used across the country to predict future criminals. And it’s biased against blacks. In: PROPUBLICA. Chicago, 23 mai. 2016. Disponível em: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing. Acesso em: 25 abr. 2022.
BABUTA, Alexander; OSWALD, Marion. Data analytics and algorithmic bias in policing. In: ROYAL UNITED SERVICES INSTITUTE FOR DEFENCE AND SECURITY STUDIES. Londres, 15 jul. 2019. Disponível em: https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/831750/RUSI_Report_-_Algorithms_and_Bias_in_Policing.pdf. Acesso em: 25 abr. 2022.
BARRETT, Lindsey. Ban facial recognition technologies for children and for everyone else. Boston University Journal of Science and Technology Law. Boston, v. 26, n. 2, p. 223-285, jul. 2020. Disponível em: https://www.bu.edu/jostl/files/2020/08/1-Barrett.pdf. Acesso em: 25 abr. 2022
BARTNECK, Christoph; LÜTGE, Christoph; WAGNER, Alan; WELSH, Sean. What is AI? In: BARTNECK, Christoph; LÜTGE, Christoph; WAGNER, Alan; WELSH, Sean (coords.). An Introduction to Ethics in Robotics and AI. Cham: Springer, 2020. p. 5-16. Disponível em: https://link.springer.com/chapter/10.1007/978-3-030-51110-4_2. Acesso em: 25 abr. 2022.
CORBETT-DAVIES, Sam; PIERSON, Emma; FELLER, Avi; GOEL, Sharad. A computer program used for bail and sentencing decisions was labeled biased against blacks. It’s actually not that clear. Washington Post, Washington, 17 out. 2016. Disponível em: https://www.washingtonpost.com/news/monkey-cage/wp/2016/10/17/can-an-algorithm-be-racist-our-analysis-is-more-cautious-than-propublicas/. Acesso em: 25 abr. 2022.
CORBETT-DAVIES, Sam; GOEL, Sharad, GONZÁLEZ-BAILÓN, Sandra. Even imperfect algorithms can improve the criminal justice system. New York Times, Nova York, 20 dez. 2017. Disponível em: https://www.nytimes.com/2017/12/20/upshot/algorithms-bail-criminal-justice-system.html#:~:text=the%20main%20story-Even%20Imperfect%20Algorithms%20Can%20Improve%20the%20Criminal%20Justice%20System,biased%20nature%20of%20human%20decisions. Acesso em: 25 abr. 2022.
CRAWFORD, Kate. Artificial intelligence’s white guy problem. New York Times, Nova York, 25 jun. 2016. Disponível em: https://www.nytimes.com/2016/06/26/opinion/sunday/artificial-intelligences-white-guy-problem.html. Acesso em: 25 abr. 2022.
ESCOBEDO, Fernanda; MEZA, Iván; TREJO, Sofía. Hacia los comités de ética en inteligencia artificial. In: ARXIV - CORNELL UNIVERSITY. Ithaca, 11 fev. 2020. Disponível em: https://arxiv.org/ftp/arxiv/papers/2002/2002.05673.pdf. Acesso em: 25 abr. 2022.
EUBANKS, Virginia. Automathing inequality: how high-tech tools profile, police, and punish the poor. Nova York: St. Martin’s Press, 2018. p.12.
EUROPA. Parlamento Europeu. Propuesta del Parlamento Europeo sobre la inteligencia artificial en el derecho penal y su utilización por las autoridades policiales y judiciales en asuntos penales. Bruxelas, BE: Parlamento Europeu, 2020. Disponível em: https://www.europarl.europa.eu/doceo/document/A-9-2021-0232_ES.html. Acesso em: 25 abr. 2022.
EUROPA. Comissão Europeia. Livro Branco sobre a inteligência artificial - uma abordagem europeia virada para a excelência e a confiança. Bruxelas, BE: Comissão Europeia, 2020. Disponível em: https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_pt.pdf. Acesso em: 25 abr. 2022.
FENOLL, Jordi. Inteligencia artificial y proceso judicial. Madri: Marcial Pons Ediciones Jurídicas y Sociales, 2018.
GUTIERREZ, Miren. Algorithmic gender bias and audiovisual data: a research agenda. International Journal of Communication, [s. l.], v. 15, n. 1, p. 439-461, jan. 2021. Disponível em: https://ijoc.org/index.php/ijoc/article/viewFile/14906/3333. Acesso em: 25 abr. 2022.
JORDAN, Michael. Artificial intelligence - the revolution hasn’t happened yet. In: HARVARD DATA SCIENCE REVIEW – MIT PRESS, Cambridge, 01 jul. 2019. Disponível em: https://hdsr.mitpress.mit.edu/pub/wot7mkc1/release/9. Acesso em: 25 abr. 2022
KAPLAN, Andreas; HAENLEIN, Michael. A brief history of artificial intelligence: on the past, present, and future of artificial intelligence, California Management Review, Califórnia, v. 61, n. 4, p. 5-14, ago. 2019. Disponível em: https://journals.sagepub.com/doi/10.1177/0008125619864925. Acesso em: 25 abr. 2022.
LOHR, Steve. Facial recognition is accurate, If you’re a white guy. New York Times, Nova York, 09 fev. 2018. Disponível em: https://www.nytimes.com/2018/02/09/technology/facial-recognition-race-artificial-intelligence.html. Acesso em: 25 abr. 2022.
MÁNTARAS, Ramon. Towards artificial intelligence: advances, challenges, and risks. Metode Science Studies Journal, [s. l.], v. 1, n. 9, p. 119-125, mar. 2019. Disponível em: https://ojs.uv.es/index.php/Metode/article/view/11145. Acesso em: 25 abr. 2022.
O’NEIL, Cathy. Weapons of math destruction: how big data increases inequality and threatens democracy. Nova York: Broadway Books, 2017. p. 10.
POOLE, David; MACKWORTH, Alan. Artificial intelligence foundations of computational agents. Cambridge: Cambridge University Press, 2017.
RODRÍGUEZ, Ana. The impact of artificial intelligency on penal procedure. Anuario de la Facultad de Derecho de la Universidad de Extremadura, Cáceres, v. 1, n. 36, p. 695-728, dez. 2020. Disponível em: https://publicaciones.unex.es/index.php/AFD/article/view/489. Acesso em: 25 abr. 2022.
RUSSELL, Stuart; NORVIG, Peter. Artificial intelligence: a modern approach. New Jersey: Pearson. 2020.
SCHWAB, Klaus. A quarta revolução industrial. São Paulo: Edipro, 2016.
SHAPIRO, Aaron. Predictive policing for reform? Indeterminacy and intervention in big data policing. Surveillance and Society, [s. l.], v. 17, n. 3-4, p. 456-472, set. 2019. Disponível em: https://doi.org/10.24908/ss.v17i3/4.10410. Acesso em: 25 abr. 2022.
SIEGEL, Eric. How to fight bias with predictive policing. In: SCIENTIFIC AMERICAN. Nova York, 19 fev. 2018. Disponível em: https://blogs.scientificamerican.com/voices/how-to-fight-bias-with-predictive-policing. Acesso em: 25 abr. 2022.
SMITH, Aaron. Attitudes toward algorithmic decision making. In: PEW RESEARCH CENTER. Washington, 16 nov. 2018. Disponível em: https://www.pewresearch.org/internet/2018/11/16/attitudes-toward-algorithmic-decision-making/. Acesso em: 25 abr. 2022.
STRAUß, Stefan. From big data to deep learning: a leap towards strong AI or ‘intelligentia obscura’?. Big Data and Cognitive Computing, [s. l.], v. 2, n. 3, p. 1-19, jul. 2018. Disponível em: https://www.mdpi.com/2504-2289/2/3/16/pdf. Acesso em: 25 abr. 2022.
WACHTER-BOETTCHER, Sara. How Silicon Valley’s blind spots and biases are ruining tech for the rest of us. Washington Post, Washington, 13 dez. 2017. Disponível em: https://www.washingtonpost.com/news/posteverything/wp/2017/12/13/how-silicon-valleys-blind-spots-and-biases-are-ruining-tech-for-the-rest-of-us/. Acesso em: 25 abr. 2022.
YAROVENKO, Vasily; SHAPOVALOVA, Galina; ISMAGILOV, Rinat. Some problems of using the facial recognition system in law enforcement activities. Правовое государство теория и практика, [s. l.], v. 17, n. 1, p. 189-200, mar. 2021. Disponível em: https://pravgos.ru/index.php/journal/article/view/160. Acesso em: 25 abr. 2022.
Descargas
Publicado
Cómo citar
Número
Sección
Licencia
Derechos de autor 2023 Catiane Steffen
Esta obra está bajo una licencia internacional Creative Commons Atribución 4.0.
Autores que publican en esta revista están de acuerdo con los siguientes términos:
- Autores mantienen los derechos autorales y conceden a la revista el derecho de primera publicación, con el trabajo simultáneamente licenciado bajo la Creative Commons - Atribución 4.0 Internacional que permite compartir el trabajo con reconocimiento de la autoría y publicación inicial en esta revista.
- Autores tienen autorización para asumir contratos adicionales separadamente, para la distribución no exclusiva de la versión del trabajo publicada en esta revista (ej.: publicar en repositorio institucional o como capítulo de libro), con reconocimiento de autoría y publicación inicial en esta revista.
- Autores tienen permiso y son estimulados a publicar y difundir su trabajo online (ej.: en repositorios institucionales o en su página personal) a cualquier punto antes o durante el proceso editorial, ya que esto puede generar alteraciones productivas, así como aumentar el impacto y la citación del trabajo publicado (Véase El Efecto del Acceso Libre).