União Europeia: Uso de Inteligência Artificial para fins de persecução penal

11/09/2021

A recente evolução da inteligência artificial (IA) permitiu que novas tecnologias, como o reconhecimento biométrico (facial, voz e até mesmo o modo de caminhar[1]), fossem desenvolvidas e largamente utilizadas tanto pelo setor público, quanto pelo privado. Entretanto, com o desenvolvimento dessas novas ferramentas, abriu-se um precedente para o surgimento de uma série de questionamentos envolvendo os direitos fundamentais dos indivíduos, principalmente quando se trata do uso de inteligência artificial para fins de persecução penal. Tais questionamentos levantam importantes discussões como: essa tecnologia é mesmo adequada diante das garantias e direitos individuais? Quais direitos fundamentais são mitigados quando essa tecnologia é implementada? Quais medidas devem ser tomadas pelas autoridades públicas a fim de garantir que esses direitos sejam mitigados apenas em caráter de exceção e não como regra geral?

Os riscos atrelados à utilização da inteligência artificial para fins de persecução penal devem ser levados em consideração principalmente quando possam afetar direitos fundamentais dos indivíduos. Os direitos que podem ser violados incluem a dignidade da pessoa humana, o direito à privacidade, à proteção de dados pessoais, a não discriminação, o direito de livre associação e liberdade de expressão, além do direito das crianças e adolescentes. Todos esses direitos estão devidamente previstos na Carta dos Direitos Fundamentais da UE[2].

O primeiro grande problema que deve ser sopesado é a vigilância massiva, que pode levar ao cenário do Estado de Vigilância de tantas distopias literárias. Assim, é importante considerar que embora a persecução penal seja finalidade legítima do Estado, ela só pode ser permitida em casos específicos e individualizados e não de maneira geral e abstrata com a vigilância de toda a população em tempo real.

A regra geral é a presunção de inocência – tão vilipendiada nos dias atuais –, de modo que a vigilância sobre uma pessoa deve ser precedida dos remédios constitucionais vigentes, como autorização judicial para o ato de persecução e quebra do sigilo e da privacidade apenas diante de provas da realização de um ato criminoso.

Suplantado esse primeiro problema do Estado de Vigilância e do uso desta tecnologia apenas em caráter excepcional, devemos analisar o segundo problema, que diz respeito à confiabilidade da tecnologia para a finalidade pretendida. Neste aspecto, há o constante risco de violação a direitos fundamentais a partir da falta de precisão advinda do uso da inteligência artificial. É sabido que, através de um viés algoritmo criado por um processo de machine learning muitas vezes tendencioso, a tecnologia de reconhecimento facial tem altas chances de errar, principalmente quando usada para identificar rostos de pessoas negras, resultando assim, em um processo discriminatório.

Além disso, o processo pelo qual as imagens são obtidas e utilizadas - muito possivelmente sem qualquer consentimento obtido do titular - podem ocasionar num resultado negativo para a proteção da dignidade humana do indivíduo. Ainda nesse contexto, esse processamento de imagens pode criar um impacto violador de liberdades individuais na medida em que pode cercear a liberdade de expressão e reunião. Esse cenário é só uma das consequências a longo prazo que essa tecnologia pode acarretar, uma vez que a grande quantidade de processamento de dados pessoais e o surgimento de uma vigilância em massa pode acabar por afetar drasticamente o funcionamento da democracia, vez que, o direito à privacidade é um dos elementos chave para uma democracia liberal e uma sociedade plural.

Conforme o grande impacto das tecnologias, na maioria das vezes negativos, envolvendo inteligência artificial para os direitos humanos, a Agência de Direitos Fundamentais da UE[3] resumiu, em um documento, alguns aspectos que devem ser considerados antes de implementar esses sistemas.

  • É necessário um quadro jurídico claro capaz de regular a implementação do uso de tecnologias de reconhecimento facial, pautadas na inteligência artificial, determinando quando a coleta dessas imagens é necessária e proporcional para atingir os objetivos para os quais a tecnologia é usada. Além disso, é preciso determinar as medidas de proteção aos indivíduos cujas imagens vão ser coletadas e processadas a fim de evitar quaisquer violações a direitos fundamentais.
  • Reduzir o uso apenas ao excepcional (como o combate ao terrorismo, para a detecção de pessoas desaparecidas e vítimas de crimes) uma vez que os indivíduos muitas vezes nem sequer sabem que sua imagem facial está sendo coletada. Outrossim, há de se lembrar que existem muitas possibilidades de erro na comparação e identificação de rostos que podem implicar em processos penais equivocados e discriminatórios.
  • Devido ao fato de que o algoritmo nunca promove um resultado definitivo, os riscos de acusar pessoas incorretamente devem ser reduzidos ao mínimo em prol do direito à dignidade da pessoa humana e do devido processo legal.
  • Como as autoridades públicas muitas vezes dependem da expertise de empresas privadas para o desenvolvimento dessas tecnologias, a salvaguarda dos direitos fundamentais dos indivíduos devem ser especificados e consolidados nos contratos.
  • As empresas privadas e a comunidade científica desenvolvem um importante papel na criação de técnicas e soluções para impedir as violações de direitos e para a promoção de proteção aos dados pessoais dos cidadãos.
  • Um relatório de impacto sobre os direitos fundamentais pelo uso da tecnologia de inteligência artificial é uma importante ferramenta para garantir uma aplicação compatível com esses direitos.

 

A União Europeia detém alguns instrumentos legais para regulamentar o uso de Inteligência Artificial para fins de persecução penal. Nesse sentido, há que se mencionar a Diretiva 2016/680 do Parlamento Europeu e do Conselho[4] que visa sobretudo proteger os dados pessoais das pessoas quando são tratados pelas autoridades policiais e judiciárias. Também tem como objetivo melhorar a cooperação no combate ao terrorismo e à criminalidade transfronteiriça na UE permitindo às autoridades policiais dos países trocarem informações necessárias para que as investigações sejam mais eficazes e mais eficientes. 

A partir de uma análise dos dispositivos previstos na Diretiva, destacam-se alguns pontos importantes a respeito do uso de tecnologia para fins penais. Em primeiro lugar, a Diretiva busca garantir um nível elevado de proteção dos dados pessoais dos indivíduos e facilitar o intercâmbio desses dados entre as autoridades competentes dos Estados-Membros a fim de facilitar a cooperação judiciária-policial em matéria penal. As autoridades competentes dos Estados-Membros devem coletar e tratar esses dados para efeitos de prevenção, investigação, detecção ou repressão de infracções penais ou para a execução de sanções penais, incluindo a salvaguarda e a prevenção de ameaças à segurança pública, respeitando a especificidade dessas atividades.

A União Europeia, visando estabelecer uma série de medidas para reforçar a segurança e os direitos fundamentais das pessoas, propôs ainda uma Estratégia sobre a abordagem da UE relativa à inteligência artificial[5]. Nesse documento, a Comissão Europeia, além de definir quando e como deve-se utilizar esses sistemas de biometria, delimita os casos que esse uso é autorizado. Dessa forma, é preciso que seja seguida uma abordagem precisa e segura baseada no risco a fim de que se possa introduzir um conjunto de regras para os sistemas de IA. Faz-se necessário estabelecer requisitos específicos para a implementação desses sistemas, bem como criar obrigações de transparência.

Como regra geral, o uso desses sistemas para fins de aplicação da lei deve ser proibido, haja visto o alto risco de violação de direitos fundamentais, exceto em três situações estreitamente definidas, em que o uso se faz realmente necessário para atingir um interesse público substancial, cuja importância supera os riscos elencados. Essas situações envolvem substancialmente:

 

  • A busca de potenciais vítimas de crime, incluindo crianças desaparecidas
  • Ameaças à vida ou à segurança física de pessoas ou de um ataque terrorista
  • Detecção, localização, identificação ou repressão dos autores ou suspeitos de infrações penais referidas na Decisão-Quadro 2002/584 / JAI do Conselho[6] /

Assim, vê-se que esse rol de situações é taxativo, na medida em que limita a utilização de sistemas de identificação biométrica para fins de aplicação da lei, que devem estar sujeitas a circunstâncias específicas relativas a ameaças à vida e a integridade física, a vítimas e a identificação de agressores. O uso desses sistemas para fins de persecução penal deve estar ligado a uma autorização expressa e específica de alguma autoridade judiciária ou administrativa de um Estado-Membro.

Essas exigências se fazem necessárias uma vez que os sistemas de IA fornecem uma série de informações de pessoas singulares para os mais diversos fins pelas autoridades públicas que podem conduzir a resultados discriminatórios e à exclusão de certos grupos. Como visto, eles podem violar o direito à dignidade, à não discriminação, a liberdade de expressão e os valores de igualdade e justiça. Os casos específicos em que se autoriza o uso desses sistemas para fins de aplicação da lei são poucos pois são considerados intrusivos nos direitos e liberdades das pessoas, vez que afetam a vida privada de grande parte da população e evoca um sentimento de vigilância em massa constante.

 

 

Notas e Referências

[1] “A China já pode identificar seus cidadãos só pela forma de andar”. Portal El País Brasil. Disponível em https://brasil.elpais.com/brasil/2018/11/10/politica/1541853964_264737.html. Acessado em 19.08.2021.

[2] Disponível em <<https://www.europarl.europa.eu/charter/pdf/text_pt.pdf>>. Acessado em 05.09;2021.

[3]  FRA, Facial recognition technology: fundamental rights considerations in the context of law enforcement (FRA focus, Publications

Office of the European Union, November 2019) <https://fra.europa.eu/en/publication/2019/facial-recognition-technology-fundamental-rights -considerations-context-law> Acessado em 05.09.2021.

[4] Disponível em <<https://eur-lex.europa.eu/legal-content/PT/TXT/?uri=celex%3A32016L0680>>. Acessado em 05.09.2021.

[5] Material disponível para consulta em (i) << https://ec.europa.eu/info/strategy/priorities-2019-2024/europe-fit-digital-age/excellence-trust-artificial-intelligence_pt>>; (ii) << https://ec.europa.eu/commission/presscorner/detail/pt/ip_21_1682>>; (iii) << https://ec.europa.eu/commission/presscorner/detail/PT/qanda_21_1683>>. Acessado em 05.09.2021.

[6] Disponível em << https://eur-lex.europa.eu/legal-content/PT/LSU/?uri=CELEX:32002F0584>>. Acessado em 05.09.2021.

 

Imagem Ilustrativa do Post: colorful software or web on a computer // Foto de: Markus Spiske // Sem alterações

Disponível em: Colorful software or web code on a computer monitor photo – Free Technology Image on Unsplash

Licença de uso: https://pixabay.com/en/service/terms/#usage

O texto é de responsabilidade exclusiva do autor, não representando, necessariamente, a opinião ou posicionamento do Empório do Direito.

Sugestões de leitura