21 dezembro 2021

Inteligência artificial: caminhos para proteger a sociedade

Professora da PUC-SP, Dora Kaufman, trabalha os algoritmos de Inteligência Artificial, que na última década vem mediando a vida do cidadão do século XXI. O problema? A análise desse uso intensivo revela inúmeras violações de direitos humanos. Nesse cenário, torna-se crítico o estabelecimento de arcabouços regulatórios que conciliem a inovação contínua da tecnologia com a mitigação de riscos éticos e sociais. Os códigos de conduta baseados em princípios gerais e a auto-regulamentação mostraram-se ineficientes no enfrentamento das externalidades negativas. Ela diz que, no País, o PL 21/2020 não dá conta da complexidade do tema seja do ponto de vista do desenvolvedor ou do usuário.

O primeiro acordo global sobre a ética da Inteligência Artificial (IA) foi firmado, em 25 de novembro de 2021, pelos 193 países membros da Unesco (“Global Agreement on the Ethics of Articial Intelligence”, https://news.un.org/en/story/2021/11/1106612). O acordo, com o propósito de garantir o desenvolvimento e o uso saudável da IA, estabelece uma estrutura normativa atribuindo às nações a responsabilidade sobre a regulamentação e a fiscalização da tecnologia. Elaborado por um grupo multidisciplinar com 24 especialistas (“Awd Hoc Expert Group”, AHEG), o texto destaca as vantagens e os potenciais riscos da IA contemplando várias dimensões, dentre elas o meio ambiente e as especificidades do Sul Global (países em desenvolvimento). No âmbito específico, o documento enfatiza o controle sobre o uso de dados pessoais e proíbe, explicitamente, os sistemas de IA para pontuação social e vigilância em massa. Naturalmente, a iniciativa é positiva, contudo, não substitui a premência dos Estados criarem marcos regulatórios.

Na última década, frente aos resultados com relativa alta taxa de acurácia na execução de distintas tarefas em distintos setores, os modelos baseados em IA disseminaram-se na sociedade. A IA está na essência dos modelos de negócio das plataformas e aplicativos tecnológicos, nos processos de transformação digital das empresas constituídas e das decisões automatizadas em saúde, educação, gestão de recursos humanos, mercado bancário e financeiro, agentes imobiliários e na gestão pública, particularmente na Justiça e na Polícia Federal. A vida do cidadão do século XXI é mediada pelos algoritmos de IA. A análise desse uso intensivo revela inúmeras violações dos direitos humanos.

Esse cenário torna crítico o estabelecimento de arcabouços regulatórios que conciliem a inovação contínua da tecnologia com a mitigação dos riscos éticos e sociais. Os códigos de conduta, baseados em princípios gerais, e a autorregulamentação pelo setor de tecnologia mostraram-se ineficientes no enfrentamento das externalidades negativas. Estabelecer arcabouços regulatórios é fundamental, inclusive, para garantir a segurança jurídica e gerar confiança no mercado; atribuir, exclusivamente, ao juiz a função de arbitrar os potenciais conflitos gera insegurança no ambiente institucional do País.

Na última década, os princípios gerais – originados na Conference on Beneficial AI, realizada em 2017, conhecidos como Asilomar Principles – foram replicados em diversos documentos oficiais e estão na base fundadora dos institutos dedicados ao conceito de AI for Good. Além de sua natureza abstrata, esses princípios não são traduzíveis em linguagem matemática para serem incorporados aos modelos estatísticos de IA (https://fapcom.edu.br/revista/index.php/revista-paulus/article/view/453).

A ilusão da autorregulamentação

O filósofo e professor da Universidade de Oxford, Luciano Floridi, em artigo de novembro último, declara o fim da ilusão da autorregulamentação (self-regulation) da indústria digital/tecnológica (https://link.springer.com/article/10.1007/s13347-021-00493-0). Numa rápida retrospectiva, o filósofo relembra que, até o início da década de 2000, questões éticas como privacidade, enviesamento/preconceito, moderação de conteúdo ilegal ou antiético, proteção à privacidade, fake news e exclusão digital eram circunscritas ao âmbito acadêmico. A partir de 2004, esses temas adquiriram visibilidade na opinião pública, com a consequente pressão sobre as estratégias e práticas das instituições e sobre a necessidade de criar arcabouços regulatórios. Nesse período floresceu a ideia de autorregulamentação para lidar com a crise ética. Floridi rememora inúmeras reuniões em Bruxelas entre formuladores de políticas, legisladores, políticos, funcionários públicos e especialistas técnicos francamente favoráveis à ideia de soft law, baseada em códigos de conduta e padrões éticos da própria indústria, sem necessidade de controles externos ou imposições regulatórias, inclusive funcionando como antecipadora de legislações específicas e locais. Contudo, ao longo do tempo, esse caminho não se tornou efetivo.

No âmbito das grandes plataformas de tecnologia, algumas iniciativas ilustram a ineficiência da autorregulamentação. Em junho de 2018, o Google lançou o «Google’s AI Principles” (https://www.blog.google/technology/ai/ai-principles/) e, em 2019, lançou o Google Guidebook (https://pair.withgoogle.com/guidebook/), ambos com a finalidade de orientar o desenvolvimento e uso responsáveis da IA, aparentemente, sem resultados concretos. Em 2019, o Google constituiu o “Advanced Technology External Advisory Council” (Ateac) reunindo oito especialistas, dentre eles o Luciano Floridi. Em abril de 2019, a MIT Technology Review publicou um artigo com um conjunto de sugestões práticas para orientar o Google, ironizando que se tornou necessário pelo fato de o Ateac ter durado apenas uma semana (https://www.technologyreview.com/2019/04/06/65905/google-cancels-ateac-ai-ethics-council-what-next/).

Em 2018, o Facebook criou o Facebook Oversight Board (https://oversightboard.com/), como um órgão independente, com o propósito de selecionar casos de conteúdo para revisão e defender ou reverter as decisões de conteúdo da plataforma; o comitê tem atualmente cerca de 20 membros, sendo o único representante da América Latina, o advogado, professor e pesquisador na área Ronaldo Lemos. Em janeiro de 2020, o Facebook revelou o estatuto do comitê e uma série de lacunas preservava o comando da plataforma. Diante das reações contrárias, em outubro de 2020, o Facebook reformulou os termos do comitê, aparentemente, atribuindo-lhe mais legitimidade. Ainda é cedo para avaliar, mas suas funções estão longe de abarcar a dimensão dos problemas éticos da plataforma.

Yochai Benkler, professor da faculdade de direito de Harvard e codiretor do Berkman Klein Center for Internet and Society, em artigo publicado na Revista Nature (https://www.nature.com/articles/d41586-019-01413-1), defende a essencialidade da contribuição das empresas para moldar o futuro da IA, mas que o poder público não pode atribuir a elas o poder de avaliar como seus próprios sistemas impactam a sociedade. “As empresas de tecnologia líderes de hoje nasceram em uma época de grande fé nos mecanismos baseados no mercado. Na década de 1990, a regulamentação foi restringida e as instalações públicas, como ferrovias e serviços públicos, foram privatizadas. Inicialmente aclamadas por trazer democracia e crescimento, empresas de tecnologia proeminentes ficaram sob suspeita após a Grande Recessão no final dos anos 2000”, pondera Benkler.

O necessário arcabouço regulatório

Estabelecer um arcabouço regulatório pelo poder público é importante até mesmo para legitimar e atribuir consistência às iniciativas de autorregulação. Em 21 de abril passado, a Comissão Europeia divulgou sua proposta de regulamentação da IA (Artificial Intelligence Act – AIA), fruto de um processo iniciado em 2018 envolvendo especialistas da academia, do mercado e do governo. A previsão é permanecer em debate, no âmbito da Comunidade Europeia, nos próximos 3 ou 4 anos, antes de efetivamente se transformar em lei. Em 03 de setembro passado, o órgão fiscalizador chinês, Cyberspace Administration of China, (CAC), publicou o projeto de regulamentação de algoritmos de IA, que entrou em vigência em 29 de setembro (após consulta pública entre 3 e 29 de setembro). Em paralelo, emergem iniciativas de agências setoriais americanas, como a FDA (https://piaui.folha.uol.com.br/um-projeto-de-futuro/).

Nos EUA, o único projeto de lei de IA conhecido é o dos senadores Ron Wyden e Cory Booker, ambos do Partido Democrata. O projeto foi apresentado ao Congresso americano em 2019 (Algorithmic Accountability Act, https://www.congress.gov/bill/116th-congress/house-bill/2231) e nem chegou a ser apreciado por uma das comissões do Senado – e logo não foi submetido ao plenário. Os senadores pretendem reapresentar o projeto, inclusive porque há sinais de que ele é “bem visto” pelo governo do presidente Biden. O foco do projeto são as aplicações de “alto risco”, prevendo que as empresas, com faturamento acima de U$ 50 milhões (ou no controle de mais de 100 milhões de dados pessoais), sejam obrigadas a auditar seus modelos de IA aos moldes das avaliações de impacto ambiental. A partir da definição de “sistemas de decisão automatizada”, o projeto indica os critérios de avaliação de impacto desses sistemas, sendo a publicação dos resultados opcional. O órgão responsável pela fiscalização, com regras de intervenção previstas no projeto, é o Federal Trade Commission (FTC), presidido pela advogada Lina Khan (https://epocanegocios.globo.com/colunas/IAgora/noticia/2021/06/lina-khan-e-nova-presidente-do-ftc-ameaca-vigorosa-ao-poder-das-gigantes-de-tecnologia.html).

No âmbito da regulamentação moderna a tendência é estabelecer parcerias colaborativas entre o poder público e entidades da sociedade: ao primeiro cabe a função de estabelecer um arcabouço regulatório mínimo, e às segundas, conceder certificados (espécie de “selo de qualidade”). O IEEE (Institute of Electrical and Electronics Engineers), maior organização profissional técnica mundial, anunciou o IEEE CertifAIEd, um conjunto de critérios éticos baseado em risco «para auxiliar as organizações a oferecerem uma experiência mais confiável aos seus usuários”. A certificação atesta que o produto, serviço ou sistema foram verificados de acordo com os padrões de confiabilidade estabelecidos em torno de quatro grandes blocos: Transparency, Accountability, Algoritmic Bias, Privacy. A primeira certificação, em 2018, abrangeu apenas os sistemas inteligentes de carros autônomos. Contudo, mesmo considerando a credibilidade do IEEE, é fundamental, em geral, que o Estado garanta o interesse público, ou seja, valide ou não as certificações de instituições privadas.

Regulamentação da IA pelo Legislativo Brasileiro

O projeto de Lei 21/2020, aprovado no plenário da Câmara dos Deputados em 29 de setembro passado, com 413 votos a favor e apenas 15 contra, tem como propósito criar o marco regulatório da IA no Brasil. A iniciativa é bem-vinda, mas nada justifica o regime de urgência da tramitação: em 8 de julho, ocorreu a primeira audiência pública na Comissão de Ciência e Tecnologia, Comunicação e Informática (CCTCI), implicando um período de debate com a sociedade restrito a três meses. A título de comparação, o Marco Civil da Internet, referência mundial, aprovado em 2014 com 32 artigos, foi debatido durante cinco anos (sendo três anos na Câmara do Congresso) e recebeu mais de 800 sugestões.
O PL 21/2020 não dá conta da complexidade da tecnologia, do ponto de vista do desenvolvedor nem do usuário, não tem um conjunto de obrigações e nem indica o que os agentes são obrigados a fazer. Ou seja, não contém diretrizes concretas, objetivas e específicas que norteiem a governança da IA em todas as etapas (desenvolvimento, aplicação, monitoramento). Estabelece apenas princípios gerais. Algumas de suas cláusulas são analisadas pela autora em artigo recente na Revista Piauí (https://piaui.folha.uol.com.br/um-projeto-de-futuro/).

As audiências públicas, bem como a participação dos deputados envolvidos diretamente no Projeto 21/2020 em debates subsequentes, mostram o baixo conhecimento sobre os meandros da tecnologia entre os legisladores. Como alertou o Fórum Econômico Mundial (https://www.weforum.org/agenda/2021/02/we-need-to-talk-about-artificial-intelligence/), existe uma lacuna de conhecimento entre os desenvolvedores de IA e os legisladores que tentam regulá-la. A tendência é que essa distância se amplie à medida que aumenta a complexidade dos modelos. «É apenas familiarizando-se com a IA e seus benefícios e riscos potenciais, que os formuladores de políticas podem redigir uma regulamentação sensata, que equilibre o desenvolvimento da IA dentro dos limites legais e éticos ao mesmo tempo em que potencializa seu tremendo potencial”, pondera o WEF.

Uma das deliberações da PL 21/2020, que tem gerado polêmica entre os juristas, é a “responsabilização subjetiva” dos agentes atuantes no processo de desenvolvimento e uso de sistemas de IA, o que os tornaria automaticamente responsáveis pelos danos causados. A «Carta Aberta de Juristas ao Senado Federal”, assinada inicialmente por 25 juristas, contra o artigo 6, inciso VI do PL 21/2020, que trata da “responsabilidade subjetiva” como padrão, alega que o desenvolvedor não tem acesso ao funcionamento dos sistemas de IA https://www.change.org/p/senado-federal-carta-aberta-de-juristas-ao-senado-federal-contra-o-artigo-6o-inciso-vi-do-pl-21-a-2020). O argumento da Carta mostra que a lacuna de conhecimento não se restringe ao legislativo, mas perpassa setores importantes da sociedade, por exemplo, os juristas (além da população em geral). No estágio atual da IA, a intervenção humana está presente em todas as etapas, inclusive na deliberação e controle das decisões de risco.

Juliano Maranhão, doutor em direito e professor da USP e ativo protagonista dos debates sobre regulamentação da IA, defende que as iniciativas de governança devem contemplar: a) análises de impacto e mapeamento dos riscos associados aos usos esperados do sistema, bem como de eventuais formas de mau uso (referência à exigibilidade de impacto ambiental); b) gestão dos dados utilizados para treinamento, teste e validação do sistema (dados pessoais e dados não pessoais); c) documentação a respeito do funcionamento do sistema e das decisões envolvidas em sua construção, implementação e uso (facilitando posterior auditoria); d) registro automático dos eventos ocorridos durante a operação do sistema; e) dispositivos de interface homem-máquina apropriadas, que possam ser eficazmente auditadas; f) transparência quanto ao emprego de sistemas de inteligência artificial na interação com pessoas físicas; g) transparência na interpretação de seus resultados; h) e teste de segurança para níveis apropriados de precisão, cobertura, acurácia, robustez e cibersegurança. Cabe ressalvar a potencial parcialidade e/ou imprecisão dessas medidas, apesar de válidas, dado os interesses dos desenvolvedores e seus empregadores. Por outro lado, a auditoria externa não é trivial pela complexidade e diversidade desses sistemas, pela proteção do sigilo comercial e/ou de propriedade e pela mencionada lacuna de conhecimento dos legisladores.

A inteligência artificial, como toda tecnologia de propósito geral (General Purpose Technology, GPT) é disruptiva e transversal a todos os setores e atividades socioeconômicas. A IA difere das demais GPTs pela complexidade e pelo ritmo acelerado de sua adoção pela sociedade, fatores que dificultam a ação dos governos para, simultaneamente, permitir aos cidadãos usufruir de seus benefícios e protegê-los dos potenciais danos. Os projetos regulatórios requerem tempo de amadurecimento, neste sentido espera-se que o Senado Federal, fórum atual de tramitação da PL21/2020, promova as condições para engajar a sociedade numa ampla discussão sobre o desenvolvimento e uso da IA no Brasil.


É professora do Programa TIDD da PUC-SP. Pós-doutorada pela COPPE-UFRJ e pelo TIDD PUC-SP. Doutora pela ECA-USP com período na Université Paris – Sorbonne IV. Autora de livros. Colunista da Época Negócios

Artigos e comentários de autores convidados não refletem, necessariamente, a opinião da revista Interesse Nacional

Cadastre-se para receber nossa Newsletter