05 julho 2023

Fernando Filgueiras: Inteligência artificial e riscos existenciais para a humanidade – A armadilha do desenvolvimento

Avanço da IA se enquadra em um contexto de crises generalizadas no mundo contemporâneo e produz uma grande mudança epistêmica nas sociedades. Para pesquisador, a regulação de IA em países em desenvolvimento deve permitir e incentivar a tecnologia ao mesmo tempo que contém os riscos por modelos adaptativos que sejam mais sólidos em seus propósitos e mais flexíveis em suas práticas

Avanço da IA se enquadra em um contexto de crises generalizadas no mundo contemporâneo e produz uma grande mudança epistêmica nas sociedades. Para pesquisador, a regulação de IA em países em desenvolvimento deve permitir e incentivar a tecnologia ao mesmo tempo que contém os riscos por modelos adaptativos que sejam mais sólidos em seus propósitos e mais flexíveis em suas práticas

Nick Bostrom, Elon Musk, Nate Soares e Stuart Russell discutem os riscos existenciais da inteligência artificial durante evento na Califórnia em 2015 (Foto: Robbie Shade/CC)

Por Fernando Filgueiras*

Cada vez mais o neologismo “policrises” se torna comum em diálogos intelectuais. As mudanças pelas quais o mundo passa aumenta a sensação de incertezas e ambiguidades em função da velocidade com que os eventos ocorrem.

Mudanças climáticas, crises econômicas, ampliação de conflitos internacionais, iminência de novos conflitos. Note, leitor, que todas estas expressões são ditas no plural porque não existe apenas uma crise climática ou uma crise econômica no cenário atual. Elas são diversas e ocorrem ao mesmo tempo, criando confusão, turbulência, necessidade de mudança, mas sem uma direção especificada. Policrises têm múltiplas fontes e criam contextos sociais confusos, difíceis de navegar e que limitam nossa capacidade de agir coletivamente.

‘Policrises têm múltiplas fontes e criam contextos sociais confusos, difíceis de navegar e que limitam nossa capacidade de agir coletivamente’

Policrises não são meras turbulências. Elas são limitadoras da ação. E no meio dessas policrises temos os riscos existenciais que a inteligência artificial engloba. Geoffrey Hinton, pioneiro no desenvolvimento de redes neurais artificiais e então chefe do setor de pesquisa da Google, pediu demissão da companhia para falar dos riscos existenciais que as IAs trazem para a humanidade. Segundo ele, entramos em um território desconhecido. Hinton prevê que em 20 anos a inteligência das máquinas suplantará a inteligência humana, sem que tenhamos controle sobre o que virá no futuro.

Gabriela Ramos, Diretora-Geral Assistente da Divisão de Ciências Sociais e Humanas da Unesco conclama para que governos desenhem políticas para enfrentar os riscos existenciais da inteligência artificial e conter estes riscos que ela traz para a humanidade. Ela observa a necessidade de uma regulação internacional que abarque esse mercado e os riscos existenciais por uma diretriz ética elaborada pela Unesco. Porém, como ela aponta, políticas para inteligência artificial demandam acordos e práticas compartilhadas difíceis de serem alcançados em um contexto de crescimento do conflito internacional.

‘No centro dessas policrises da inteligência artificial está o fato de que ela produz uma grande mudança epistêmica nas sociedades’

Policrises se fazem cada vez mais presentes. E as crises oriundas do avanço da inteligência artificial não deixam de ser notadas.  No centro dessas policrises da inteligência artificial está o fato de que ela produz uma grande mudança epistêmica nas sociedades.

Sistemas de inteligência artificial são sistemas de conhecimento que baseiam a tomada de decisão e a realização de tarefas diversas em dados. Inteligências artificiais são sistemas que conseguem perceber um fluxo de entradas de dados e produzir conhecimento como uma saída.

‘O próprio nome inteligência artificial é confuso. Tratamos de sistemas algorítmicos que não são nem artificiais, nem inteligentes’

O próprio nome inteligência artificial é confuso. Tratamos de sistemas algorítmicos que não são nem artificiais, nem inteligentes. Inteligência é um atributo complexo, sem uma definição clara.

O que máquinas fazem é calcular e simular probabilidades e vetores de aprendizado. O correto, portanto, seria entender inteligência artificial como sistemas algorítmicos que constroem conhecimento sobre a ação humana e sobre coisas. Assim, o que chamamos inteligência artificial significa, na verdade, sistemas epistêmicos.

Como seres humanos, necessitamos conhecer para agir no mundo. Se conhecemos mais, maior será nossa capacidade de agência e maior a capacidade de mudar o estado de coisas. Crises epistêmicas derivam de mudanças e crises na forma como conhecemos o mundo. O que as inteligências artificiais mudam é a forma como conhecemos.

https://interessenacional.com.br/edicoes-posts/ascensao-da-inteligencia-artificial-pode-resultar-em-novas-religioes/

Trabalhando com grandes volumes de dados que são coletados praticamente em tempo real sobre tudo que nos cerca, sistemas computacionais podem produzir inferências e, assim, constituir agência. O temor de Hinton, em resumo, é que as inteligências artificiais tenham mais capacidade de ação do que humanos, destruindo estruturas sólidas de conhecimento e reduzindo ou expurgando os espaços de criatividade, intuição e desejos.

‘Inteligência artificial é uma tecnologia de propósito geral. Ela pode ser utilizada em todos os setores da sociedade que exijam algum conhecimento’

Inteligência artificial é uma tecnologia de propósito geral. Ela pode ser utilizada em todos os setores da sociedade que exijam algum conhecimento. IA pode ser utilizada para desenvolver fármacos e vacinas na indústria porque consegue processar grandes volumes de dados e analisar experimentos. Ela pode ser utilizada para mudar toda a dinâmica de mercado. Desde análises do mercado financeiro e tomada de decisão sobre investimentos e comércio com dados transacionais diversos, até mesmo em atividades do mercado de atacado e varejo.

Por conhecer o que desejamos por meio de dados que produzimos em nossas interações cotidianas na internet, sistemas de inteligência artificial podem conhecer nossas preferências e nos sugerir coisas. Preços de produtos variados são decididos de maneira dinâmica por inteligências artificiais que precificam coisas diversas com grandes volumes de dados que preveem e simulam potencial de consumo.

https://interessenacional.com.br/edicoes-posts/a-inteligencia-artificial-nos-paises-do-g20/

IAs já são utilizadas para conectar pessoas e moldam toda a dinâmica de comunicação política na sociedade. IAs já são utilizadas para a tomada de ação no serviço público, seja tomando decisões complexas que afetam as vidas das pessoas, seja implementando serviços e políticas públicas.

Em todas essas situações, o conhecimento gerado por inteligências artificiais transforma nossas maneiras de pensar, fazer, sentir e agir. Por esta razão que elas são inovações disruptivas com profundos impactos na sociedade.

‘Mudanças epistêmicas significam novos riscos para a sociedade. Elas implicam em mudanças na forma de pensar, fazer, gerir e comunicar que não são consistentes com enquadramentos institucionais existentes’

Mudanças epistêmicas significam novos riscos para a sociedade. Elas implicam em mudanças na forma de pensar, fazer, gerir e comunicar que não são consistentes com enquadramentos institucionais existentes. Inovações disruptivas são compreendidas dentro de mudanças epistêmicas.

Novas tecnologias criam crises e novos riscos para a sociedade sem que sequer percebamos a forma isso ocorre. Inteligências artificiais, incorporando em nosso cotidiano algoritmos de machine learning, deep learning, visão computacional, processamento de linguagem natural, transformam as maneiras como agimos no mundo. Embora sejam ferramentas de otimização e racionalização de várias coisas que já fazemos, em muitas situações as mudanças não são controláveis e impactam de formas diversas a sociedade.

‘Por mudar nossa estrutura de conhecimento, existem riscos sociais, políticos, econômicos e culturais com implicações profundas na existência humana’

Exatamente por mudar nossa estrutura de conhecimento, existem riscos sociais, políticos, econômicos e culturais com implicações profundas na existência humana. Dentre os riscos sociais, inovações na forma como fazemos coisas implica em mudanças radicais no trabalho, criando precariados, ou novas modalidades ou reforço de desigualdades existentes. Os riscos políticos compõem diversas formas de radicalização e polarização ideológica que ameaçam regimes políticos democráticos.

A forma como a comunicação política mudou radicalmente com a presença das redes sociais reconfigurou toda a disputa discursiva, fazendo com que algoritmos criem os frames a partir dos quais os atores políticos jogam de forma radicalizada e ameaçadora da pluralidade constituinte de regimes democráticos.

https://interessenacional.com.br/edicoes-posts/fernando-filgueiras-estrategia-brasileira-para-inteligencia-artificial-e-ambigua-mal-formulada-e-sem-clareza-de-proposito/

Sistemas algorítmicos implicam em riscos econômicos quando algoritmos produzem novas formas de oligopólio no desenvolvimento de tecnologias e novas formas de concentração de capital. Marketplaces concentram as trocas de mercado e atuam como precificadores e impulsionadores do consumo. Por fim, dentre os riscos culturais, temos novas formas de colonização e homogeneização cultural em torno de valores de consumo. Novas formas de colonização surgem a partir do momento em que dados sobre humanos se tornam objeto de exploração global.

‘Policrises que emergem com a inteligência artificial não decorrem da tecnologia em si, mas do fato que algoritmos atuam na construção da moldura institucional a partir da qual agimos no mundo’

Policrises que emergem com a inteligência artificial não decorrem da tecnologia em si, mas do fato que algoritmos atuam na construção da moldura institucional a partir da qual agimos no mundo. Esse é o âmago das preocupações de Hinton quando fala em riscos existenciais da inteligência artificial. Disso não decorre uma imagem muitas vezes simplista expressa em filmes de ficção científica. O risco existencial não está no fato de Skynet roubar os códigos de lançamento de bombas nucleares provocando uma guerra nuclear. O risco existencial está nas disrupções provocadas no trabalho, na subsistência humana e em diversas questões de justiça em função de mudanças sistêmicas que podem tornar humanos objetos mais descartáveis na economia política global.

O hype do momento é o movimento criado por vários industriais líderes do setor de tecnologia clamando por regulações para a inteligência artificial. Desenhos regulatórios são importantes para enfrentar os desafios postos pela inteligência artificial para a humanidade. Criar desenhos regulatórios que permitam adaptar a tecnologia aos objetivos humanos, conter formas de discriminação algorítmica, colocar humanos no controle e supervisão de sistemas algorítmicos, criar mecanismos que favoreçam o desenvolvimento descentralizado e concorrencial, assim como sejam capazes de mapear e mitigar os riscos emergentes é fundamental para o desenvolvimento tecnológico.

A União Europeia discute uma Lei de Inteligência Artificial cujo foco é que sistema de IA sejam seguros, transparentes, rastreáveis, não discriminatórios e respeitadores do meio ambiente. O projeto europeu cria novos direitos – direitos digitais – na sociedade, estabelece que sistemas algorítmicos devem ser supervisionados por humanos e estabelece níveis de riscos e medidas para enfrentamento.

Sistemas cujos riscos sejam inaceitáveis, tais como sistemas que fazem manipulação cognitivo-comportamental, sistemas de identificação biométrica ou de pontuação social serão em geral proibidos, com exceções para a repressão de crimes graves. Sistemas com riscos elevados, tais como aqueles aplicados em educação, saúde, aplicação da lei, serão avaliados antes de colocados no mercado. Sistemas de risco limitado devem cumprir requisitos mínimos de transparência, de modo a alertar usuários de que estão interagindo com IAs.

A União Europeia desenvolve uma perspectiva de regulação de IA baseada na emergência de novos direitos. Já nos Estados Unidos, a perspectiva de regulação de inteligência artificial se dá em uma dinâmica de mercado. Usuários de sistemas baseados em inteligência artificial são antes de tudo consumidores. Baseados em leis de proteção do consumo e defesa da concorrência, a regulação de inteligência artificial nos Estados Unidos baseia-se na ideia de que sistemas algorítmicos são produtos de consumo por parte de humanos.

‘Governar algoritmos significa criar novas formas de transparência e accountability para assegurar a contenção desses riscos existenciais’

Governar algoritmos significa criar novas formas de transparência e accountability para assegurar a contenção desses riscos existenciais. Entender como eles calculam cursos para a ação humana e responsabilizar desenvolvedores e organizações pelos seus impactos é fundamental na construção democrática de uma sociedade institucionalizada pelos algoritmos.

O Brasil avança nessa discussão a partir do projeto de lei 2.338 de 2023. O objetivo é criar estruturas de governança dos algoritmos que assegurem proteção de direitos, segurança, explicabilidade, rastreabilidade, não-discriminação, transparência e accountability. O projeto de lei 2.338 incorporou o projeto de lei oriundo da Câmara dos Deputados, depois de um extensivo trabalho de uma comissão de especialistas montada no Senado Federal.

De forma geral, estamos mais próximos de abordagem europeia da regulação de inteligência artificial, embora a Câmara dos Deputados tenha aprovado uma perspectiva de autorregulação das IAs por parte da indústria. O projeto encontra-se no Senado e em algum momento retornará para a Câmara dos Deputados para confirmação das mudanças feitas no Senado ou simplesmente pela adoção de autorregulação.

Desenhos regulatórios emergentes para a inteligência artificial têm sido muito discutidos e desenhados na base de tentativa e erro. Muito provavelmente o processo de regulação promoverá avanços e retrocessos, idas e vindas até que se assentem em processos governamentais mais amplos.

‘A regulação de inteligência artificial envolve aprendizados por parte de governos, construção de capacidades e um processo coordenado de ação governamental que não são fáceis de ser criados’

A regulação de inteligência artificial envolve aprendizados por parte de governos, construção de capacidades e um processo coordenado de ação governamental que não são fáceis de ser criados. Demorará um tempo até que encontre assento. Além disso, devemos ter em conta que processos regulatórios que emergem a partir de inovações disruptivas trazem consigo uma armadilha.

Eventualmente, alguns acreditam, IA poderia se tornar poderosa o suficiente para criar perturbações em escala social dentro de alguns anos se nada for feito para retardá-la, embora os pesquisadores às vezes não consigam explicar como isso aconteceria. Sam Altman, CEO da Open AI, desenvolvedora do ChatGPT, coloca os riscos existenciais da inteligência artificial como concretos, demandando de governos regulações que moldem práticas e perspectivas que permitam controle das tecnologias.

A forma como essa declaração exaltou posições a favor do processo regulatório foi acompanhada por grandes líderes industriais como Bill Gates, Elon Musk, Steve Wozniak e cientistas como o próprio Geoffrey Hinton e Yann LeCun, chefe da divisão de IA da Meta. O hype da regulação emerge em escala global, criando para governos demandas regulatórias novas, com necessidade de resposta rápida.

Termos grandes industriais do setor clamando regulação de seus mercados com intenções discursivas em torno dos riscos existenciais é no mínimo estranho. Construir hipérboles regulatórias pode pressionar governos a adotar instrumentos para conter o avanço da inteligência artificial.

https://interessenacional.com.br/edicoes-posts/fernando-filgueiras-regulacao-e-desafios-das-inteligencias-artificiais-generativas/

Se o desafio da regulação de IA já é grande em países desenvolvidos como o caso de Estados Unidos ou da União Europeia, este desafio é maior ainda em países em desenvolvimento. Na corrida global pelo domínio desse mercado, se países em desenvolvimento compram acriticamente o hype da regulação em função dos riscos existenciais, eles podem aumentar os custos de entrada para a indústria local, criando proteções que prejudicam o desenvolvimento tecnológico. O resultado seria a constituição de medidas protecionistas que impedem a concorrência e o desenvolvimento tecnológico.

Nessa corrida global pelo domínio da inteligência artificial, países em desenvolvimento parecem reforçar sua posição dependente, para a qual não conseguem responder de maneira satisfatória.

Políticas para inteligência artificial são novas e desafiadoras a países em desenvolvimento. Elas exigem incentivo para o desenvolvimento tecnológico ao mesmo tempo que requerem instrumentos regulatórios bem calibrados e consistentes e coerentes com os riscos existenciais da inteligência artificial.

‘A regulação de IA em países em desenvolvimento deve permitir e incentivar o desenvolvimento tecnológico ao mesmo tempo que contém os riscos por modelos adaptativos que sejam mais sólidos em seus propósitos e mais flexíveis em suas práticas’

As respostas a esse problema não são fáceis. Talvez elas requeiram mais uma abordagem de governança adaptativa, menos rígida que o modelo europeu e mais diretiva do que o modelo norte-americano. A regulação de IA em países em desenvolvimento deve permitir e incentivar o desenvolvimento tecnológico ao mesmo tempo que contém os riscos por modelos adaptativos que sejam mais sólidos em seus propósitos e mais flexíveis em suas práticas.

Os riscos existenciais são concretos. Enfrentar esses riscos existenciais da inteligência artificial coloca mais um problema no contexto de policrises que vivenciamos em contextos de profundas mudanças epistêmicas. Esse enfrentamento é penoso politicamente, construído em enquadramentos de incertezas e impactos que podem ditar o lugar de países em desenvolvimento no concerto global de um mundo cada vez mais inseguro, adverso e ameaçador.


*Fernando Filgueiras é colunista da Interesse Nacional, professor da Faculdade de Ciências Sociais da Universidade Federal de Goiás (UFG), affiliate faculty do Ostrom Workshop on Political Theory and Policy Analysis, Indiana University e pesquisador do Instituto Nacional de Ciência e Tecnologia – Democracia Digital (INCT-DD).


Artigos e comentários de autores convidados não refletem, necessariamente, a opinião da revista Interesse Nacional

Editor-executivo do portal Interesse Nacional. Jornalista e doutor em Relações Internacionais pelo programa de PhD conjunto do King’s College London (KCL) e do IRI/USP. Mestre pelo KCL e autor dos livros Brazil’s international status and recognition as an emerging power: inconsistencies and complexities (Palgrave Macmillan), Brazil, um país do presente (Alameda Editorial), O Brazil é um país sério? (Pioneira) e O Brasil voltou? (Pioneira)

Artigos e comentários de autores convidados não refletem, necessariamente, a opinião da revista Interesse Nacional

Cadastre-se para receber nossa Newsletter