A tutela jurídica da IA: o caso da Nova Zelândia  

22/08/2020

A cada dia que passa, mais e mais pessoas (empresas privadas e o setor público), ao redor do mundo se adequam à era digital e incorporam em suas atividades tecnologias e softwares de inteligência artificial (IA). O uso de tecnologias de IA é crescente e cada vez mais frequente, em qualquer área de atividade (escolas, bancos, seguradoras, marketing, medicina, escritórios de advocacia e Tribunais). Em decorrência da quantidade gigantesca de softwares que funcionam a partir da linguagem computacional, tornou-se crescente também a preocupação com as questões relacionadas ao uso dessas tecnologias e em como resolver os problemas daí decorrentes.

Não é de hoje que países ao redor do mundo discutem e tentam encontrar soluções para regulamentar o uso de inteligência artificial com base em princípios e regras éticas, de forma que o uso dessa tecnologia não desrespeite os direitos humanos e os direitos e garantias individuais, além de estruturar mecanismos de mitigação dos danos causados e, até mesmo, cogitar um seguro obrigatório no setor de Robótica, como proposto pela União Europeia recentemente.

Nesse sentido, a Nova Zelândia vem apresentando diversas preocupações quanto ao uso ético da inteligência artificial. Trata-se de um país insular que corresponde a praticamente o tamanho do estado de São Paulo, localizado na Oceania e que, apesar de pequeno e “isolado”, nos últimos anos elaborou inúmeras iniciativas para o melhor uso de tecnologias de IA e combate aos vieses algorítmicos.

Em 2017, parceria entre a Universidade de Otago e a New Zealand Law Foundation iniciou um projeto com duração de três anos, tendo como objetivo avaliar quais as implicações jurídicas e políticas da inteligência artificial para a Nova Zelândia. Uma das finalidades do projeto é analisar os desafios jurídicos trazidos pelas tecnologias de IA[1]. A preocupação por trás do projeto se funda em alguns questionamentos, sendo o principal deles a indagação sobre a possibilidade do uso de tecnologia de IA preditiva no sistema de justiça criminal de forma transparente, confiável e que não discrimine determinados grupos sociais.

Diante dessa grande preocupação em como utilizar a IA de forma ética na Nova Zelândia, a organização não governamental AI Forum New Zealand lançou um documento[2], em março de 2020, com princípios a serem utilizados por operadores de tecnologias de IA para torná-la mais confiável, de modo a garantir que os neozelandeses tenham acesso a uma IA mais segura.

Os princípios adotados na Nova Zelândia como regras basilares para que se obtenha uma IA de confiança e calcada na atuação ética são: Equidade e Justiça; Confiabilidade, Segurança e Privacidade; Transparência; Supervisão Humana e Responsabilidade; e Bem-Estar.

Ao invés de criar uma lei específica sobre regulamentação do uso de inteligência artificial, o governo do Estado pretende, com esse conjunto de princípios, atualizar os regulamentos que já existem para que se adequem ao uso da tecnologia de forma apropriada e que transmita confiança para toda a sociedade.

A ideia da organização não foi a de fornecer uma lista exaustiva de princípios a serem utilizados para garantia de uma IA ética, e sim apresentar um rol principiológico que servirá como ponto de partida de forma útil e que possa ser levado em consideração no projeto, desenvolvimento, implantação e operação de sistemas de IA. Ou seja, são regras que devem ser observadas por todos os agentes envolvidos no uso de IA, desde a criação (by design) até a sua manipulação.

Outra importante, e recente, iniciativa do Estado é a Algorithm Charter for Aotearoa New Zealand - Carta de Algoritmo para Aotearoa Novaong Zelândia[3]. A Carta possui um conjunto de regras que visam melhorar o uso de IA pelo setor público e combater os possíveis vieses existentes na tomada de decisões algorítmicas. Trata-se de um compromisso firmado entre 21 agências governamentais, aos quais se comprometem a gerenciar como os algoritmos serão usados, de forma cuidadosa, e apresenta três objetivos principais: i. encontrar o equilíbrio certo entre privacidade e transparência; ii. evitar vieses não intencionais e; iii. refletir os princípios do Tratado de Waitangi (documento assinado em 1840 que anuncia a fundação do país)[4] .

A carta nada mais é do que um conjunto de regras criado para fornecer uma base sólida que servirá para as agências de governo que trabalham com tecnologias de IA; é, em outras palavras, um guia orientativo sobre como utilizar seus algoritmos de forma confiável. O uso dessas ferramentas deverá ser baseado nas regras de Transparência, Parceria, Pessoas, Dados, Privacidade, Ética, Direitos Humanos, bem como ter a Supervisão Humana.

No cenário atual do país, os órgãos públicos fazem constante coleta, processamento e análises de dados pessoais de seus cidadãos por meio de IA para fornecimento de serviços públicos. Diante de todas as inseguranças quanto à tomada de decisões por algoritmos e o risco de discriminação por parte dos titulares desses dados, a Carta surge com a importante função de mitigar esses riscos e arrefecer a ansiedade crescente na população, fornecendo maior segurança para as pessoas e tornando o uso de dados pessoais pelo governo mais transparente, na medida em que demonstra que as informações pessoais dos cidadãos são utilizadas pelas entidades públicas de maneira adequada.

O resultado obtido na análise do uso de algoritmos pelas empresas públicas foi de que o tratamento e uso dos dados pessoais dos cidadãos é essencial para o fornecimento de serviços públicos e, assim sendo, os signatários da Carta se comprometeram utilizar a matriz de risco prevista na Carta para fazer uma avaliação de todas as decisões que são tomadas por seus algoritmos. O resultado da análise dará aos órgãos uma classificação do risco daquela decisão causar algum dano, podendo ser Baixo, Médio ou Alto. Esta classificação determinará, então, o como a Carta deverá ser aplicada.

A classificação “Baixo” indica que o impacto da decisão baseada em IA não gera consequências graves ou trata-se de um impacto isolado, podendo a Carta ser ou não aplicada; quando “Moderado”, significa que a decisão da IA pode atingir uma certa quantidade de pessoas gerando danos médios em suas vidas, e nesse caso a Carta deveria ser aplicada (embora não seja obrigatória); quando “Alto”, significa que a decisão da IA atingirá muitas pessoas, lhes causando graves consequências, e assim sendo, será obrigatória a aplicação das regras da Carta de forma integral.

A Matriz de Risco foi uma solução que os órgãos encontraram para garantir que as empresas façam constantes análises das decisões tomadas por seus algoritmos, mas não só isso, já que ela permite que os signatários consigam saber exatamente quais as ações de seus sistemas de IA estão provocando maiores danos aos cidadãos neozelandeses, dando a eles a oportunidade de se concentrarem nos problemas mais danosos.

A regulamentação para o uso de tecnologias de IA de uma forma geral ainda não foi aprovada, ao que parece, por nenhum país. Todavia, até o início de 2019, 26 países, incluindo a União Europeia, já haviam realizado e traçado alguma forma de estratégia para o uso de IA, ou ao menos conduzido avaliação nacional sobre o impacto que o uso dessa tecnologia teria no país.

Nesse sentido, a Nova Zelândia divulgou, junho de 2020, um White Paper[5] representando a primeira fase de um projeto iniciado em 2019 sobre como regulamentar de forma eficaz o uso de IA. Inicialmente, dividiu-se o uso da tecnologia em diferentes áreas e foram produzidas diretrizes e estruturas que contribuíssem para que a regulamentação da IA se desse de forma adequada em cada uma dessas áreas. A próxima fase do projeto, com previsão de término em 2021, terá como objetivo colocar em teste essas diretrizes e estruturas para melhor entender o cenário da IA e melhor estruturar projetos de regulamentação para seu uso.    

A tendência é que o número de países desenvolvendo estratégias e se preparando para a regulamentação aumente cada vez mais, dado o uso quase inevitável de tecnologias de IA para diversas finalidades. Assim, iniciativas como a que órgãos governamentais da Nova Zelândia se comprometeram na Carta, somado ao projeto divulgado no White Paper constituem importantes parâmetros para servirem de inspiração para a tutela jurídica de outros países ao redor do globo.

Apesar da existência de grandes benefícios trazidos por tecnologias de inteligência artificial tanto pelo setor público quanto privado, muitas vezes o uso dessa tecnologia causa mais danos do que benefícios, principalmente quando não calibradas de maneira satisfatória. Por esse motivo, é de grande importância a existência de um regulamento baseado em princípios que garantam a eliminação ou ao menos a mitigação desses riscos. Somente a partir de bases fortes que tragam uma maior segurança que será possível o maior aproveitamento dos benefícios da IA.

 

Notas e Referências

[1] Disponível em https://www.otago.ac.nz/news/news/otago633498.html. Acessado em 21.08.2020.

[2] Disponível em https://aiforum.org.nz/wp-content/uploads/2020/03/Trustworthy-AI-in-Aotearoa-March-2020.pdf. Acessado em 21.08.2020.

[3] Disponível em https://data.govt.nz/assets/data-ethics/algorithm/Algorithm-Charter-2020_Final-English-1.pdf. Acessado em 21.08.2020.

[4] Disponível em https://www.newzealand.com/nz/feature/treaty-of-waitangi/. Acessado em 21.08.2020.

[5] Disponível em http://www3.weforum.org/docs/WEF_Reimagining_Regulation_Age_AI_2020.pdf. Acessado em 21.08.2020.

 

Imagem Ilustrativa do Post: Lady Justice // Foto de: Dun.can // Sem alterações

Disponível em: https://www.flickr.com/photos/duncanh1/23620669668/

Licença de uso: https://creativecommons.org/publicdomain/mark/2.0/

O texto é de responsabilidade exclusiva do autor, não representando, necessariamente, a opinião ou posicionamento do Empório do Direito.

Sugestões de leitura