O uso de Reconhecimento Facial para fins de policiamento ganhou especial espaço nas pautas públicas e sociais nos últimos meses, sobretudo em decorrência das manifestações “Black Lives Matter”, responsáveis por levantar importantes questões sobre racismo e a discriminação inerentes à essa tecnologia.
O tema já foi inclusive objeto de discussão em colunas anteriores[1]-[2], onde debatemos a tendência que algumas das principais empresas estavam trilhando no sentido de banir o uso de reconhecimento facial, especialmente quando o uso é feito por força policial no auxílio das investigações (identificação de suspeitos). O principal motivo para isso, é justamente impedir que essas tecnologias continuem sendo utilizadas enquanto seus resultados não atingem o esperado: maior precisão na identificação de pessoas negras.
Além disso, pontos relacionados à privacidade das pessoas também tornam-se importantes na discussão quanto a implementação em massa de sistemas de reconhecimento facial, tanto por empresas privadas quanto pelo setor público, essencialmente com o fervor sobre o tema em decorrência da onda regulatória de dados pessoais (por exemplo, com a entrada em vigor da LGPD em setembro de 2020).
No Brasil, o uso da tecnologia acontece há algum tempo. No dia 07 de julho de 2019 a polícia militar do estado do Rio de Janeiro iniciou o uso de Reconhecimento Facial com a finalidade de auxiliar a polícia na busca de criminosos, e no dia seguinte de seu uso, dia 08 de julho, fora feita a primeira prisão com o uso da ferramenta[3]. A tecnologia foi muito utilizada, também, durante o carnaval de 2019 e 2020 em Salvador, tendo a Secretaria de Segurança Pública da Bahia (SSP-BH) anunciado que o sistema de reconhecimento facial que utilizam foi responsável pela identificação de 42 pessoas contra as quais existiam ordem judicial de prisão[4].
O sistema utilizado neste caso é capaz de identificar os suspeitos com uma precisão de até 90%. Ainda que muito próximo da identificação “perfeita”, o fato da tecnologia não ser precisa o suficiente faz nascer uma série de questionamentos quando a confiabilidade que se pode depositar nessas ferramentas, sendo estas, inclusive, as principais preocupações que levaram empresas e diversas cidades e países a banirem o uso.
O uso dessa tecnologia apresenta grandes riscos de propagação do racismo, pois os sistemas de inteligência artificial responsáveis por isso têm uma maior dificuldade na identificação de pessoas negras[5]. Vale sempre lembrar que as cidades de São Francisco, Berkeley e Nova York, todas nos EUA, baniram o uso dos sistemas de reconhecimento facial, principalmente quanto ao uso para fins investigatórios, além de empresas como IBM terem declarado publicamente que não mais fornecerão este tipo de tecnologia para a polícia.
Relatório[6] produzido pela organização Rede de Observatórios da Segurança apresentou que em média 90% das pessoas que são presas no Brasil, com uso de ferramentas de Reconhecimento Facial são negras. Esses números corroboram com as justificativas quanto ao encerramento do uso desses softwares, uma vez que, dado o fato de a tecnologia não ter uma precisão de 100% e apresentar maiores dificuldades na identificação de pessoas negras, é patente a preocupação com os riscos de violação a direitos fundamentais (especialmente para essa parcela da população). O coordenador de pesquisa da organização, Pablo Nunes, apontou que o uso dessas “tecnologias pode agravar o encarceramento em massa, principalmente de jovens e negros das periferias brasileiras”[7], em decorrência desses “detalhes” e números que são constantemente ignorados.
O governo do Distrito Federal, na contramão dessas preocupações, quanto aos riscos derivados da imprecisão de sistemas de reconhecimento facial, sancionou a Lei nº 6.712/2020[8], publicada no Diário Oficial na última quarta-feira (11 de novembro de 2020).
Em dezembro de 2019 o governo do Distrito Federal já havia manifestado interesse em implementar sistemas de reconhecimento facial nas ruas, com o intuito de monitorar e auxiliar a força policial nas investigações[9]. E esse objetivo se concretizou com o advento da Lei em questão, que tem por objetivo dispor justamente sobre regras para o uso de tecnologias de reconhecimento facial para fins de segurança pública (art. 1º da Lei).
A Lei define, em seu art. 3º, a vedação da ferramenta para estabelecer vigilância contínua contra indivíduo ou grupo, em qualquer hipótese, não podendo a força policial se valer da tecnologia para “perseguir” ou vigiar suspeitos. Estabelece, ainda, que, a tecnologia somente deverá ser instalada em locais públicos e, obrigatoriamente, precisarão conter algum informativo (placas), para que as pessoas saibam que naquele local é utilizado sistema de reconhecimento facial (art. 4º da Lei).
Em seu Capítulo III, “Da Revisão das Informações”, dispõe que:
Art. 5º: Toda e qualquer sinalização de identificação positiva gerada por sistema de reconhecimento facial deve ser revisada por um agente público antes de qualquer ação decorrente.
Parágrafo único. A identificação positiva gerada pelo sistema deve ser validada em campo próprio pelo agente público responsável.
Essa previsão é um sinal de que existe uma preocupação legislativa quanto a imprecisão dos sistemas de reconhecimento facial, que podem, muitas vezes realizar identificações de forma errada.
Essa previsão, de um modo geral, vai ao encontro da Resolução nº 332 do CNJ[10], de 21 de agosto de 2020. A Resolução aborda questões relacionadas a ética, a transparência e a governança na produção e no uso de tecnologias de Inteligência Artificial no Poder Judiciário.
Nesse sentido, destacam-se alguns pontos interessantes da Resolução, no tocante à preocupação quanto a proteção a direitos frente ao uso dessas ferramentas. O instrumento dispõe que, quando do uso de IA pelo poder público, deverá ser observada a compatibilidade de sua prática com o respeito aos direitos fundamentais, em especial aqueles previstos na CF e em tratados dos quais o Brasil seja parte (art. 4º). Com um capítulo dedicado à não-discriminação, a Resolução dispõe que, as decisões tomadas com base no uso de inteligência artificial, deverão ter por objetivo auxiliar no julgamento justo, de forma a preservar a “igualdade, a não discriminação, a pluralidade e a solidariedade” (art. 7º). Aborda ainda, nos parágrafos do art. 7º, questões relacionadas aos vieses nos algoritmos que, caso tenham sido identificados anteriormente à produção do software, deverão ser corrigidos. Na hipótese de não ser possível a sua correção, o software deverá ser descontinuado e deverá ser elaborado um relatório explicando o motivo da decisão.
Os softwares utilizados “deverão observar as regras de governança de dados aplicáveis aos seus próprios sistemas computacionais, as Resoluções e as Recomendações do Conselho Nacional de Justiça, a Lei no 13.709/2018, e o segredo de justiça” (art. 9º); sendo que os órgãos do poder judiciário que fizerem uso de IA deverão informar ao CNJ todos os detalhes sobre seu uso, bem como o desenvolvimento, a implantação ou o uso da IA, os objetivos para o uso e quais os resultados pretendidos (art. 10), e CNJ publicará em seu site todos os softwares criados ou utilizados (art. 11).
Levando em consideração a ausência de regras específicas no Brasil sobre o uso ético de IA, a Resolução nº 332 do CNJ define que deverá ser observado ainda o contido na Carta Europeia de Ética sobre o Uso da Inteligência Artificial em Sistemas Judiciais e seus Ambientes[11], de modo a garantir um uso adequado desses sistemas.
A preocupação do Conselho Nacional de Justiça com o uso de IA para fins de persecução penal é tamanha que a Resolução 332 do CNJ expressamente indica que “a utilização de modelos de Inteligência Artificial em matéria penal não deve ser estimulada, sobretudo com relação à sugestão de modelos de decisões preditivas” (art. 23) e que “Os modelos de Inteligência Artificial destinados à verificação de reincidência penal não devem indicar conclusão mais prejudicial ao réu do que aquela a que o magistrado chegaria sem sua utilização” (art. 23, § 2º).
Em essência, ambas as normas, Lei nº 6.712/2020 e Resolução nº 332 do CNJ, estabelecem um conjunto de normas que buscam regular o uso de tecnologias de IA, de modo a atenderem a alguns princípios básicos para garantia de direitos fundamentais: ética, transparência, não discriminação, diminuição dos vieses algorítmicos entre outros.
Embora exista toda uma preocupação em informar a população que ‘naquele’ local existe tecnologia de IA que opera com sistema de reconhecimento facial, e a previsão de que, antes de qualquer coisa será realizada uma verificação humana, visando compensar a imprecisão da tecnologia, seriam essas medidas suficientes? O Brasil, frente à realidade social, estaria preparado para utilizar essas ferramentas, essencialmente no tocante a investigações policiais?
É um tanto quanto preocupante pensar que, softwares de reconhecimento facial podem ser utilizados para identificar suspeitos de crimes a partir de uma simples foto, e que esse reconhecimento poderia ser utilizado como prova responsável pela condenação de um indivíduo, ainda que se trate de uma tecnologia a qual não se pode depositar total confiabilidade.
E tem sido cada vez mais comum que delegacias utilizem fotografias para identificação de autores de crimes, se valendo desse “meio probatório” como fonte única para persecução penal. A título de exemplo, no Rio de Janeiro um homem recebeu ordem de prisão com base no reconhecimento fotográfico feito por uma testemunha (sem uso de sistemas de reconhecimento facial), realizado a partir de sua foto da carteira de trabalhado (datada de 15 anos atrás), como sendo autor de um crime de roubo; o acusado passou 30 dias preso, e somente durante o processo, quando em juízo as testemunhas tiveram acesso a uma fotografia atualizada e puderam fazer o reconhecimento pessoal, é que perceberam que haviam errado na identificação, ocasionando na retirada das denúncias contra ele[12].
Nessa linha, a 6ª Turma do STJ, durante o julgamento do HC nº 598.886 em 27 de outubro de 2020, já havia se manifestado sobre o reconhecimento de suspeitos com base em fotografia, como única fonte de comprovação, como não sendo meio de prova suficiente para identificação de autoria do crime. Isso porque "O reconhecimento feito de forma frágil não deve, isoladamente, à míngua de outras provas de corroboração independentes, servir para lastrear uma sentença condenatória."[13] O uso de fotografia para identificar um suspeito deve ser uma fase anterior ao reconhecimento pessoal, tendo em vista que não existe base legal que permita o uso de fotos para comprovação de autoria, dada a sua fragilidade probatória.
Ora, se os riscos de uma testemunha humana identificar erroneamente um sujeito como autor de crime levantam questionamentos quanto à direitos ligados à liberdade e devido processo legal (direitos e garantias fundamentais previstos na Constituição Federal), por que o uso de tecnologias de reconhecimento facial, atualmente imprecisas, deveriam ter a confiança da sociedade e das instituições para fins de persecução penal? O perigo na condenação de pessoas inocentes só existe quando o meio de obtenção de prova é um humano?
É nesse sentido, inclusive, que muitos dos estudos desenvolvidos na União Europeia sobre o uso de IA com reconhecimento facial para fins penais vêm se desenvolvendo. Como todo reconhecimento facial envolve o tratamento de dados pessoais (por demandarem a utilização de imagens de rostos das pessoas analisadas), no início desse ano, com a publicação de seu “Livro Branco Sobre o uso de Inteligência Artificial: Uma abordagem europeia virada para a excelência e a confiança”, a Comissão Europeia apontou o preocupação sobre a utilização desses dados pessoais para fins de identificação de sujeitos, uma vez que:
[...] a utilização de dados biométricos para efeitos de identificação à distância, por exemplo, através do reconhecimento facial em lugares públicos, comporta riscos específicos para os direitos fundamentais. As implicações em matéria de direitos fundamentais decorrentes da utilização de sistemas de IA de identificação biométrica à distância podem variar consideravelmente em função da finalidade, do contexto e do âmbito da utilização.
O uso de dados como a imagem, para fins de investigação penal, já é ponto regulamentado desde 2016 pela UE, por meio da Diretiva 2016/680[14]. O instrumento objetiva garantir a proteção quanto ao tratamento de dados pessoais realizados por autoridades competentes para fins de prevenção, investigação, detecção ou repressão de infrações penais ou execução de sanções penais. O instrumento conversa com a RGPD, também de 2016, que limita os motivos para que se realize tratamento de dados (como imagem – características físicas), para identificação inequívoca de pessoas (art. 9º da RGPD)[15]. E em seu art. 10, a RGPD exige que, todos os dados que são tratados para fins penais, devem ocorrer em conformidade com as normas da UE, além de assegurarem “garantias adequadas para os direitos e liberdades dos titulares dos dados”[16].
Antes mesmo da entrada em vigor da LGPD no Brasil, as mesmas questões foram levantadas quanto à aplicação da Lei para investigações policiais. Diante disso, em novembro/2020, a comissão de juristas criado pela Câmera dos Deputados apresentou proposta de Lei, com o Anteprojeto de Lei de Proteção de Dados para segurança pública e persecução penal[17] (citado como LGPD-Penal), em atendimento ao art. 4º da LGPD, prevendo que o uso de dados com finalidades penais e para segurança pública devem ser precedidos de aprovação de lei específica.
Na mesma linha do previsto na Lei 6.712/2020 do DF e da Resolução nº 332 do CNJ, o Anteprojeto da LGPD-Penal prevê, em seu art. 23 que,
[...] decisões tomadas com base no tratamento automatizado de dados pessoais, que afetem os interesses do titular, devem ser precedidas de autorização do Conselho Nacional de Justiça e de publicação de relatório de impacto, que comprove a adoção das garantias adequadas para os direitos e liberdades do titular, incluído o direito de solicitar a revisão da decisão por uma pessoa natural [...].
Essa disposição também denota a preocupação existente quanto a inexatidão e vieses algorítmicos de tecnologias de IA, como o uso de softwares de reconhecimento facial, sobretudo no tocante a investigações criminais, tendo em vista que, de acordo com o estabelecido no art. 5º da LGPD, a imagem de um indivíduo, nesse contexto, é tida como um dado pessoal sensível (merecedor, assim, de especial proteção).
Embora sejam muitos países que se valem dessas tecnologias, com a finalidade – de auxiliar nas investigações penais, existe o reconhecimento por esses Estados que o uso dessas IA são potencialmente perigosas, independentemente dos ‘benefícios’ que proporcionam – e estes não podem ofuscar os riscos por trás de seu uso, principalmente no contexto de direitos fundamentais[18].
Pensar que as principais empresas responsáveis pelo desenvolvimento de tecnologias de reconhecimento facial vêm demonstrando grandes preocupações quanto ao seu uso oferecer riscos à privacidade, dignidade e direitos relacionados a liberdade, é, no mínimo, um sinal de alerta para que, desenvolvedores menores e governos que se valham dessas ferramentas, repensem sobre os problemas decorrentes de sua implementação. O uso massificado de Reconhecimento Facial necessita de uma prévia reflexão quanto a necessidade e existência de outros meios menos invasivos e que não ofereçam tantos riscos aos indivíduos.
Notas e Referências
[1] Disponível em: https://emporiododireito.com.br/leitura/reconhecimento-facial-racismo-e-privacidade. Acesso em: 11.11.2020.
[2] Disponível em: https://emporiododireito.com.br/leitura/twitter-youtube-seriam-os-algoritmos-discriminatorios. Acesso em: 11.11.2020.
[3] Disponível em: https://www.techtudo.com.br/noticias/2019/07/policia-militar-do-rj-faz-primeira-prisao-usando-reconhecimento-facial.ghtml. Acesso em: 11.11.2020.
[4] Disponível em: https://www.tecmundo.com.br/seguranca/150617-reconhecimento-facial-encontra-foragidos-carnaval-salvador.htm. Acesso em: 11.11.2020.
[5] Disponível em: https://www.bbc.com/portuguese/geral-48889883. Acessado em: 11.11.2020.
[6] Disponível em: http://observatorioseguranca.com.br/wp-content/uploads/2019/11/1relatoriorede.pdf. Acesso em: 12.11.2020.
[7] Disponível em: http://observatorioseguranca.com.br/wp-content/uploads/2019/11/1relatoriorede.pdf. Acesso em: 12.11.2020.
[8] Disponível em: https://www.tjdft.jus.br/institucional/relacoes-institucionais/arquivos/lei-no-6-712-de-10-de-novembro-de-2020.pdf. Acesso em: 11.11.2020.
[9] Disponível em: https://www.correiobraziliense.com.br/app/noticia/cidades/2019/12/22/interna_cidadesdf,815903/gdf-promete-instalar-cameras-de-reconhecimento-facial-nas-ruas-em-2020.shtml. Acesso em: 12.11.2020.
[10] Disponível em: https://atos.cnj.jus.br/files/original191707202008255f4563b35f8e8.pdf. Acesso em: 12.11.2020.
[11] Disponível em: https://rm.coe.int/carta-etica-traduzida-para-portugues-revista/168093b7e0. Acesso em: 12.11.2020.
[12] Disponível em: https://www1.folha.uol.com.br/cotidiano/2020/11/usar-apenas-fotos-para-identificar-suspeitos-esta-levando-inocentes-a-cadeia-alertam-instituicoes.shtml?utm_source=twitter&utm_medium=social&utm_campaign=comptw. Acesso em: 13.11.2020.
[13] Disponível em: https://migalhas.uol.com.br/arquivos/2020/10/978365243DE163_HC598886voto.pdf. Acesso em: 13.11.2020.
[14] Disponível em: https://eur-lex.europa.eu/legal-content/PT/TXT/PDF/?uri=CELEX:32016L0680&from=PT. Acesso em: 13.11.2020.
[15] Disponível em: https://eur-lex.europa.eu/legal-content/PT/TXT/HTML/?uri=CELEX:32016R0679. Acesso em: 13.11.2020.
[16] Disponível em: https://eur-lex.europa.eu/legal-content/PT/TXT/HTML/?uri=CELEX:32016R0679. Acesso em: 13.11.2020.
[17] Disponível em: https://www.convergenciadigital.com.br/doc/20/DADOS_Anteprojeto-CPDS-persecFINAL.pdf. Acesso em: 13.11.2020.
[18] Disponível em: https://igarape.org.br/wp-content/uploads/2020/06/2020-06-09-Regula%C3%A7%C3%A3o-do-reconhecimento-facial-no-setor-p%C3%BAblico.pdf. Acesso em: 13.11.2020.
Imagem Ilustrativa do Post: Tap Tap Revenge // Foto de: Andrew Mager // Sem alterações
Disponível em: https://www.flickr.com/photos/mager/2727189936/
Licença de uso: https://creativecommons.org/licenses/by/2.0/