A inteligência artificial é uma ameaça existencial – mas não do jeito que se pensa
Em um contexto de ansiedade crescente em relação à ascensão da IA, professor argumenta que tais preocupações são frequentemente exageradas, destacando que o perigo da IA reside na maneira como ela pode afetar a forma como as pessoas se veem, diminuindo gradualmente habilidades humanas essenciais, como tomada de decisões, encontros fortuitos e pensamento crítico.
Em um contexto de ansiedade crescente em relação à ascensão da IA, professor argumenta que tais preocupações são frequentemente exageradas, destacando que o perigo da IA reside na maneira como ela pode afetar a forma como as pessoas se veem, diminuindo gradualmente habilidades humanas essenciais, como tomada de decisões, encontros fortuitos e pensamento crítico.
Por Nir Eisikovits*
A ascensão do ChatGPT e sistemas de inteligência artificial semelhantes foi acompanhada por um aumento acentuado na ansiedade sobre a IA. Nos últimos meses, executivos e pesquisadores de segurança da IA têm feito previsões, apelidadas de “P(desgraça)”, sobre a probabilidade de a IA provocar uma catástrofe em larga escala.
As preocupações atingiram um pico em maio de 2023, quando a organização sem fins lucrativos de pesquisa e defesa Center for AI Safety divulgou uma declaração de uma frase: “Mitigar o risco de extinção pela IA. deve ser uma prioridade global ao lado de outros riscos em escala social, como pandemias e guerra nuclear”. A declaração foi assinada por muitos atores importantes no campo, incluindo os líderes da OpenAI, Google e Anthropic, bem como dois dos chamados “padrinhos” da IA: Geoffrey Hinton e Yoshua Bengio.
Você pode perguntar como esses medos existenciais devem funcionar. Um cenário famoso é o experimento mental do “maximizador de clipes de papel” articulado pelo filósofo de Oxford, Nick Bostrom. A ideia é que um sistema de IA encarregado de produzir o maior número possível de clipes de papel pode percorrer distâncias extraordinárias para encontrar matérias-primas, destruindo fábricas e causando acidentes de carro, por exemplo.
Uma variação menos intensiva em recursos tem uma IA encarregada de obter uma reserva para um restaurante popular desligando redes celulares e semáforos para impedir que outros clientes consigam uma mesa.
Materiais de escritório ou jantar, a ideia básica é a mesma: a IA está rapidamente se tornando uma inteligência alienígena, boa em atingir objetivos, mas perigosa porque não se alinha necessariamente com os valores morais de seus criadores. E, em sua versão mais extrema, esse argumento se transforma em ansiedades explícitas sobre IAs escravizando ou destruindo a raça humana.
Dano real
Nos últimos anos, meus colegas e eu no Centro de Ética Aplicada da UMass Boston temos estudado o impacto do envolvimento com a IA na compreensão que as pessoas têm de si mesmas, e acredito que essas ansiedades catastróficas são exageradas e mal direcionadas.
Sim, a capacidade da IA de criar vídeo e áudio deep-fake convincentes é assustadora e pode ser abusada por pessoas com más intenções. Na verdade, isso já está acontecendo: agentes russos provavelmente tentaram constranger o crítico do Kremlin, Bill Browder, envolvendo-o em uma conversa com um avatar do ex-presidente ucraniano Petro Poroshenko. Os cibercriminosos têm usado a clonagem de voz de IA para uma variedade de crimes – de roubos de alta tecnologia a golpes comuns.
Os sistemas de tomada de decisão de IA que oferecem aprovação de empréstimos e recomendações de contratação carregam o risco de viés algorítmico, uma vez que os dados de treinamento e os modelos de decisão em que são executados refletem preconceitos sociais de longa data.
Esses são grandes problemas e requerem a atenção dos formuladores de políticas. Mas eles já existem há algum tempo e dificilmente são cataclísmicos.
Não na mesma liga
A declaração do Center for AI Safety agrupou a IA com pandemias e armas nucleares como um grande risco para a civilização. Há problemas com essa comparação. O COVID-19 resultou em quase 7 milhões de mortes em todo o mundo, provocou uma crise massiva e contínua de saúde mental e criou desafios econômicos, incluindo escassez crônica na cadeia de suprimentos e inflação descontrolada.
As armas nucleares provavelmente mataram mais de 200.000 pessoas em Hiroshima e Nagasaki em 1945, ceifaram muito mais vidas de câncer nos anos seguintes, geraram décadas de profunda ansiedade durante a Guerra Fria e deixou o mundo à beira da aniquilação durante a Crise dos Mísseis Cubanos em 1962. Eles também mudaram os cálculos dos líderes nacionais sobre como responder à agressão internacional, como ocorre atualmente com a invasão da Ucrânia pela Rússia.
A IA simplesmente não está nem perto de ganhar a capacidade de causar esse tipo de dano. O cenário do clipe de papel e outros semelhantes são ficção científica. Os aplicativos de IA existentes executam tarefas específicas em vez de fazer julgamentos amplos. A tecnologia está longe de ser capaz de decidir e planejar os objetivos e objetivos subordinados necessários para interromper o tráfego para conseguir um lugar em um restaurante ou explodir uma fábrica de automóveis para satisfazer sua coceira por clipes de papel.
A tecnologia não apenas carece da complicada capacidade de julgamento multicamada envolvida nesses cenários, mas também não tem acesso autônomo a partes suficientes de nossa infraestrutura crítica para começar a causar esse tipo de dano.
O que significa ser humano
Na verdade, existe um perigo existencial inerente ao uso da IA, mas esse risco é existencial no sentido filosófico e não apocalíptico. A IA em sua forma atual pode alterar a maneira como as pessoas se veem. Pode degradar habilidades e experiências que as pessoas consideram essenciais para o ser humano.
Por exemplo, os humanos são criaturas que fazem julgamentos. As pessoas ponderam racionalmente os detalhes e fazem julgamentos diários no trabalho e durante o tempo de lazer sobre quem contratar, quem deve obter um empréstimo, o que assistir e assim por diante. Porém, cada vez mais esses julgamentos estão sendo automatizados e transferidos para algoritmos. Quando isso acontecer, o mundo não vai acabar. Mas as pessoas gradualmente perderão a capacidade de fazer esses julgamentos por si mesmas. Quanto menos deles as pessoas fizerem, pior elas provavelmente se tornarão em fazê-los.
Ou considere o papel do acaso na vida das pessoas. Os seres humanos valorizam encontros fortuitos: encontrar um lugar, pessoa ou atividade por acidente, ser atraído para ele e apreciar retrospectivamente o papel que o acidente desempenhou nessas descobertas significativas. Mas o papel dos mecanismos de recomendação algorítmica é reduzir esse tipo de acaso e substituí-lo por planejamento e previsão.
Finalmente, considere os recursos de escrita do ChatGPT. A tecnologia está eliminando o papel das tarefas de redação no ensino superior. Se isso acontecer, os educadores perderão uma ferramenta fundamental para ensinar alunos a pensar criticamente.
Não morto, mas diminuído
Então, não, a IA não vai explodir o mundo. Mas a aceitação cada vez mais menos crítica dela, em uma variedade de contextos estreitos, significa a erosão gradual de algumas das habilidades humanas mais importantes. Os algoritmos já estão debilitando a capacidade das pessoas de fazer julgamentos, desfrutar de encontros fortuitos e aprimorar o pensamento crítico.
A espécie humana sobreviverá a tais perdas. Mas nosso modo de existir será empobrecido no processo. As ansiedades fantásticas em torno do próximo cataclismo de IA, singularidade, Skynet, ou como você possa imaginar, obscurecem esses custos mais sutis. Lembre-se da famosa última frase de The Hollow Men de T.S. Eliot: “É assim que o mundo acaba, não com um estrondo, mas com um gemido”.
*Nir Eisikovits é Professor de Filosofia e Diretor do Centro de Ética Aplicada da UMass Boston
Tradução de Julia Gonzalez
Este texto é uma republicação do site The Conversation sob uma licença Creative Commons. Leia o artigo original, em inglês.
Artigos e comentários de autores convidados não refletem, necessariamente, a opinião da revista Interesse Nacional
Este texto é uma republicação do site The Conversation sob uma licença Creative Commons. Leia o artigo original em https://theconversation.com/br
Artigos e comentários de autores convidados não refletem, necessariamente, a opinião da revista Interesse Nacional