Há algumas colunas iniciamos um estudo sobre manifestações de tentativas de regulamentação da Inteligência Artificial (IA) em outros países[1], começando nossa investigação com a Algorithm Charter for Aotearoa New Zealand - Carta de Algoritmo para Aotearoa Nova Zelândia[2]. Essa semana, Singapura resolveu estipular regras sobre a temática, o que parece ser o primeiro documento com propostas de governança da IA naquele país.
O país teve um significativo aumento no desenvolvimento tecnológico nas últimas décadas, em decorrência do grande foco na inovação, baseada em fortes investimentos em Pesquisa e Desenvolvimento[3]. Esse crescimento faz com que o país seja conhecido atualmente como sendo o Vale do Silício da Ásia[4], tendo se transformado no berço para startups de tecnologia[5].
Com as tecnologias de IA cada vez mais presentes na sociedade, responsáveis inclusive por utilizarem diversos mecanismos de decisões algorítmicas automatizadas, tem-se como consequência um aumento quanto aos riscos decorrentes do uso desses instrumentos que são tão presentes na nossa vida. E o papel da ética na implementação da IA, vem sendo cada vez mais discutido no sentido de garantir que a Inteligência Artificial (sobretudo as com base em decisões algorítmicas) sejam utilizadas de forma a não causar danos.
Cada vez mais, nos deparamos com uma necessidade de controle e supervisão sobre a adoção da tecnologia, bem como em relação aos dados utilizados para alimentar essas máquinas e sobre seus algoritmos, além da implementação de medidas de salvaguardas que sejam adequadas para garantir resultados seguros para os humanos. Foi neste sentido que Singapura lançou, no dia 16 de outubro, o AI Ethics & Governance Body of Knowledge (BoK)[6].
Trata-se de documento para ser utilizado como referência, servindo de auxílio às empresas que adotarem o uso de Inteligência Artificial. O BoK prevê formas de governança da IA, ou seja, uma série de estratégias que visam a garantia da ética no uso da tecnologia.
O “Guia” foi desenvolvido pelo Singapore Computer Society (SCS) - um grupo da indústria do país, com aproximadamente 42 mil membros, existente desde 1967. Antes do desenvolvimento do documento, o grupo identificou os problemas imensuráveis que algoritmos enviesados e mal programados podem gerar. Com isso, existe uma urgência na utilização da IA de forma ética[7].
A partir disso, a utilização desse instrumento tem como objetivo fazer com que aumente a confiança das partes interessadas na IA, o que se dará por meio da utilização responsável, e por meio do controle dos possíveis riscos desse uso. As organizações que implementarem tecnologias de IA devem também “demonstrar esforços razoáveis para alinhar políticas, estruturas e processos internos com práticas relevantes baseadas em responsabilidade no gerenciamento e proteção de dados”[8], além de tentarem eliminar e minimizar os riscos inerentes à implementação da IA.
O BoK aplica-se a empresas ou entidades que incorporem ou implementem a IA em suas operações, indivíduos ou consumidores dessas empresas ou entidades e a provedores de soluções de IA. O documento apresenta recomendações a serem adotadas pelas instituições, de modo que o nível da adoção dependerá de diversos fatores, sendo que os três principais são a identificação: i. da natureza e a complexidade da IA usada pelas organizações; ii. do nível de implementação da IA no processo de tomada de decisões; e iii. da gravidade e qual a probabilidade de impacto dessa decisão automatizada sobre os indivíduo[9].
Esses fatores são importantes para o aumento da confiança das partes interessadas no uso da IA, de modo que este se dê de forma responsável, mas também para construção e alinhamento de políticas internas das empresas e organizações sobre a responsabilidade no gerenciamento e proteção dos dados utilizados nesse processo.
Não à toa o BoK estabelece o uso da IA baseado na transparência, uso justo e que possa ser explicado, tendo o ser humano como centralidade na concepção e implementação da Inteligência Artificial.
O Guia compreende, então, orientações às empresas e organizações que utilizarem a IA, de modo a promover o seu uso responsável, sendo que elas devem ser adotados nas seguintes áreas: governança interna (estrutura e medidas de governança interna que incorporem valores, riscos e responsabilidade no tocante à decisões algorítmicas); centralidade humana (adoção de metodologia que identifique quais os riscos aceitáveis a partir do uso da IA, identificando, também, quais os níveis adequados de envolvimento humano nas decisões algorítmicas); gerenciamento das operações (estabelecimento de questões que devem ser consideradas pelo desenvolvedor da IA, incluindo o gerenciamento de dados, que deverão passar por auditoria, por exemplo); e comunicação entre as partes interessadas (o desenvolvimento de estratégias de comunicado - canais de interação para que haja uma gestão do relacionamento entre as partes[10].
A adoção de medidas de governança da IA no país são voluntarias, e o objetivo dessa abordagem é buscar um equilíbrio entre o apoio à inovação e garantir segurança aos cidadãos quanto ao uso e implementação da tecnologia[11]. E mesmo com essa estratégia de adoção voluntária, Singapura se tornou um importante ator no desenvolvimento tecnológico nos últimos anos, e o BoK não é a primeira manifestação da preocupação do país sobre o uso e governança de IA, tendo sido, inclusive, baseado em uma iniciativa anterior de seu governo.
Em janeiro de 2019 a Comissão de Proteção de Dados Pessoais de Singapura (Personal Data Protection Commission Singapore[12]) lançou o Model AI Governance Framework, que recebeu uma segunda edição no início de 2020.
Além de explicar sobre o funcionamento de tecnologias de Inteligência Artificial, o documento também apresenta formas de utilização responsável dos dados, com uma estrutura que garante transparência a partir de uma comunicação aberta sobre o uso das informações. O objetivo do documento é apresentar orientações detalhadas e prontas para serem implementadas pelo setor privado na utilização da IA tendo como principais focos a utilização ética da tecnologia e a governança da Inteligência Artificial.
Segundo a Estrutura criada pelo documento, resultados éticos no uso da IA dar-se-ão a partir de Princípios Orientadores, estabelecendo que todas as decisões tomadas por tecnologias de Inteligência Artificial deverão ser transparentes, justas e possíveis de serem explicadas, e todos os sistemas utilizados terão como centralidade o ser humano – sua proteção. Com isso, a implementação do uso da tecnologia deverá ocorrer de modo a garantir que existam formas de atribuição de responsabilidade claras, gerenciamento dos riscos (minimizando os danos aos indivíduos), treinamento constante da equipe e o gerenciamento das operações de modo a eliminar ou limitar ao máximo os vieses algorítmicos. Outra abordagem do documento é a criação de uma estrutura de comunicação entre as partes interessadas, tendo como objetivo: divulgar aos usuários as políticas da IA, permitir que os usuários deem feedback sobre as ferramentas e tornar as comunicações e informações mais acessíveis[13].
A utilização dessa estrutura principiológica, visando uma IA com resultados éticos e com danos minimizados ao máximo, busca aumentar a compreensão e a confiança da população quanto à utilização da IA. Todo esse processo tem como pretensão a criação de mecanismos que sejam eficazes na eliminação e prevenção dos vieses algorítmicos. E tendo esse objetivo (uso da IA de forma ética), é necessário a implementação de estruturas de governança da Inteligência Artificial que garantam a incorporação desses princípios desde a concepção dessas tecnologias (nesse sentido surgem diversas discussões sobre privacy by design, security by design, human rights by design, etc).
A urgência na regulamentação de tecnologias de IA é uma questão global, e para Singapura existe um desafio extra nessa tentativa, tendo em vista que no final de 2019 o país lançou um plano para tornar-se referência mundial na liderança da Inteligência Artificial até 2030 – National AI Strategy[14].
O documento apresenta quatro abordagens para implementação da IA, que giram em torno do objetivo de que, “em 2030, Cingapura será líder no desenvolvimento e implantação de soluções de IA escaláveis e impactantes em setores-chave de alto valor e relevância para nossos cidadãos e empresas”[15].
A primeira abordagem diz respeito ao foco na implementação da IA, por meio do trabalho conjunto com instituições públicas, privadas e de pesquisa, buscando resultados eficazes e soluções para uso da IA. A segunda estabelece como foco o impulsionamento e a implementação da tecnologia em setores chave, como saúde, governo, transporte, educação etc. (a título de exemplo, até 2025 Singapura pretende treinar ao menos 25 mil profissionais em codificação e implementação de IA básica). A terceira tem como pretensão a garantia de uma implementação eficaz da IA a partir de 3 pontos: identificação dos problemas, desenvolver e testar os algoritmos da IA de forma a resolver estes problemas encontrados e por último, garantir que essa produção e implementação da IA se dê sempre buscando melhorias. A quarta abordagem diz respeito à adoção de estratégias que priorizem o ser humano – com limitação dos riscos de dano e foco na confiança das pessoas com uso dessas tecnologias[16].
Embora o plano de se tornar referência em Governança da IA seja um tanto quanto ambicioso, o país estabeleceu estratégias baseadas no desenvolvimento social, econômico e político. A colocação da prioridade no ser humano como elemento central para implementação das tecnologias de IA é um importante aspecto para garantia do uso ético da IA. Com as buscas pela eliminação de qualquer forma de dano (minimizando os vieses algorítmicos quando não possível a eliminação), o foco em identificação dos problemas e criação de matrizes de riscos e aumento nos testes para eliminação dos problemas são importantes passos para garantia de uma IA mais segura.
Além disso, existe toda uma preocupação em, precipuamente, garantir que a população entenda o que são as tecnologias de IA, como elas são implementadas e em que momento de suas vidas elas se manifestam, quais os riscos por trás de seu uso e como as instituições trabalharão para eliminá-los. Esse é um importante passo para concretização de um dos objetivos do país: garantir que a, antes de tudo, a população entenda e sinta-se segura com o uso da Inteligência Artificial.
Os riscos de dano, como o de discriminação, por exemplo, são inerentes à adoção da IA, e garantir que exista uma base principiológica ética desde o desenvolvimento até a implementação da tecnologia é uma forma de minimizar os perigos de sua adoção. Não basta que a IA “atue” com fundamentos voltados para uma série de princípios que garantam a segurança, se na sua concepção não houve o cuidado necessário para assegurar resultados eficazes e seguros.
Para criação de uma IA responsável, é necessário que exista responsabilidade no seu processo de criação. E as estratégias, planos e Guias de referências, como os adotados por Singapura, certamente tornam-se modelos a serem seguidos por outras nações na implementação de suas tecnologias de Inteligência Artificial.
Notas e Referências
[1] Disponível em: https://emporiododireito.com.br/leitura/a-tutela-juridica-da-ia-o-caso-da-nova-zelandia. Acesso em: 28.10.2020.
[2] Disponível em: https://data.govt.nz/assets/data-ethics/algorithm/Algorithm-Charter-2020_Final-English-1.pdf. Acesso em: 28.10.2020.
[3] Disponível em: http://via.ufsc.br/o-ecossistema-de-inovacao-da-finlandia-coreia-do-sul-e-singapura/. Acesso em: 28.10.2020.
[4] Disponível em: https://www.visitsingapore.com/mice/en/bulletin-board/asias-silicon-valley/overview/. Acesso em: 28.10.2020.
[5] Disponível em: https://www.reuters.com/article/sponsored/from-singapore-to-silicon-valley. Acesso em: 28.10.2020.
[6] Disponível em: https://ai-ethics-bok.scs.org.sg/. Acesso em: 28.10.2020.
[7] Disponível em: https://computerworld.com.br/inovacao/singapura-lanca-guia-de-referencia-de-etica-e-governanca-da-ia/. Acesso em: 28.10.2020.
[8] Disponível em: https://ai-ethics-bok.scs.org.sg/document/1. Acesso em: 28.10.2020.
[9] Disponível em: https://ai-ethics-bok.scs.org.sg/. Acesso em: 28.10.2020.
[10] Disponível em: https://ai-ethics-bok.scs.org.sg/. Acesso em: 28.10.2020.
[11] Disponível em: https://ai-ethics-bok.scs.org.sg/. Acesso em: 28.10.2020.
[12] Disponível em: https://www.pdpc.gov.sg/Help-and-Resources/2020/01/Model-AI-Governance-Framework. Acesso em: 28.10.2020.
[13] Disponível em: https://www.pdpc.gov.sg/Help-and-Resources/2020/01/Model-AI-Governance-Framework. Acesso em: 28.10.2020.
[14] Disponível em: https://www.smartnation.gov.sg/docs/default-source/default-document-library/national-ai-strategy.pdf?sfvrsn=2c3bd8e9_4. Acesso em: 28.10.2020.
[15] Disponível em: https://www.smartnation.gov.sg/docs/default-source/default-document-library/national-ai-strategy.pdf?sfvrsn=2c3bd8e9_4. Acesso em: 28.10.2020.
[16] Disponível em: https://www.smartnation.gov.sg/docs/default-source/default-document-library/national-ai-strategy.pdf?sfvrsn=2c3bd8e9_4. Acesso em: 28.10.2020.
Imagem Ilustrativa do Post: holding a cellphone // Foto de: Adrianna Calvo // Sem alterações
Disponível em: https://www.pexels.com/photo/iphone-technology-iphone-6-plus-apple-17663/
Licença de uso: https://www.pexels.com/license/