SÃO PAULO, SP (FOLHAPRESS) – O pessimismo com a inteligência artificial cresceu nos últimos cinco anos e vem alimentando crenças apocalípticas de todo tipo. Mas, pelo menos no universo do trabalho, onde existe o temor de um colapso sem precedentes, não é o que indicam os dados até agora -nem o que afirmam as previsões com base nos modelos mais rigorosos.
Segundo o último relatório do Bureau of Labor Statistics, divulgado nesta sexta-feira (6) nos Estados Unidos, a produtividade do trabalho no setor empresarial teve alta de 2,8% no quarto trimestre de 2025, depois de ter tido um salto relevante no período anterior, de 4,9%. Mesmo essa alta no terceiro trimestre -notável, segundo os analistas- está dentro da normalidade quando se considera a série histórica, iniciada nos anos 1940, e não pode ser atribuída à IA.
Os novos dados mostram, sim, um mercado de trabalho fragilizado, com uma taxa de desemprego que subiu para 4,4% em fevereiro, mas não em colapso. O cenário é descrito pelos economistas como de poucas contratações e poucas demissões, e a alta da taxa também pode ser explicada por outros fatores, inclusive greves e condições climáticas no mês passado.
A dobradinha de crescimento razoável do PIB (2,2% ano passado) e mercado de trabalho enfraquecido até leva alguns analistas a questionar se os EUA não estariam no começo de um boom de produtividade promovido pela IA. Mas eles próprios admitem que é cedo para dizer e que há várias outras explicações possíveis.
Vale dizer que há quem diga que os índices utilizados hoje não são ainda suficientes para dar conta da nova tecnologia. Também nesta sexta-feira, parlamentares democratas e republicanos pediram ao Bureau of Labor Statistics que desenvolva métodos para acompanhar em tempo real o impacto da IA no mercado de trabalho, incluindo questões sobre o tema em suas pesquisas.
Está certo, mas e aquela fantasia de apocalipse no futuro, quando os agentes de IA tiverem substituído os trabalhadores? É possível encontrar previsões ao gosto de qualquer freguês, mas não é esse o cenário que os modelos mais rigorosos de projeção desenham.
O economista Daron Acemoglu, ganhador do Nobel em 2024, é autor de um artigo influente no qual desenvolve um modelo para prever o impacto da IA na geração de riqueza. E conclui que haverá um crescimento de 0,1 ponto percentual adicional do PIB durante a próxima década. Já Philippe Aghion, ganhador do Nobel em 2025, usa um modelo semelhante, mas chega a um número dez vezes maior: 1 ponto percentual ao ano, durante o mesmo período.
“Esse 1 ponto percentual ao ano é da mesma ordem de grandeza do crescimento com a tecnologia da informação e aceleração da produtividade entre 1995 e 2005”, diz Samuel Pessôa, pesquisador do BTG Pactual e do FGV Ibre. “Não parece que a IA seja tão diferente de outros pacotes tecnológicos do passado. E parece que não dá para esperar uma disrupção tão grande no mercado de trabalho.”
Em ambos os casos, a aposta é que a inteligência artificial vá substituir tarefas em vez de profissões inteiras, além de criar novas especialidades no mercado de trabalho.
Mesmo assim, o clima azedo com a nova tecnologia cresce. Os dados são mais abundantes nos Estados Unidos, é claro. Pesquisas anuais do Pew Research Center mostram que aqueles que se dizem mais preocupados do que animados com a IA saltaram de 37% da população, em 2021, para 50%, em 2025. Já o número de otimistas caiu de 18% para 10% no mesmo período.
Outros países relatam sentimentos parecidos. O Brasil, por exemplo, é a quarta nação que mais teme a IA: 48% relatam pessimismo com essas ferramentas. Além dos Estados Unidos, os brasileiros só ficam atrás dos italianos (50%) e dos australianos (49%) nesse quesito.
Já uma pesquisa Reuters/Ipsos do ano passado mostrou que 71% dos americanos temem a perda permanente de postos de emprego. Outras ideias pessimistas também encontram apoio, como a afirmação de que a IA é ruim para a humanidade (48%) ou que pode ter consequências incontroláveis (67%).
Claro, exemplos anedóticos não faltam. No fim de fevereiro, por exemplo, a empresa de pagamentos Block demitiu 40% de sua força de trabalho e usou a IA como explicação. Mas uma companhia do mesmo ramo, a Klarna, também fez cortes agressivos entre 2022 e 2024 -no ano passado, contudo, anunciou que o serviço tinha caído de qualidade e estava voltando atrás.
Casos assim alimentam o mal-estar que vem se instalando na sociedade americana, com consequências políticas. Enquanto o presidente americano Donald Trump promove os interesses das empresas de IA, a oposição a essas companhias cresce -inclusive na base republicana, 50% da qual se diz preocupada com essa tecnologia, segundo dados do Pew. Ao mesmo tempo, comunidades locais têm se organizado para se opor a projetos de data centers.
As narrativas apocalípticas acompanham desde cedo a história da IA. Uma história conhecida conta que Elon Musk ouviu, em uma conversa em 2012, um alerta de outro executivo: o plano do bilionário de colonizar Marte a fim de, alegadamente, salvar a espécie humana tinha um ponto fraco. Se a superinteligência fosse desenvolvida e se tornasse hostil, ela poderia perseguir a humanidade galáxia adentro.
Com fixação nesses medos -Musk compararia depois seu desenvolvimento a uma “invocação demoníaca”-, ele veio a se tornar um dos fundadores da OpenAI. À época, a empresa era só uma organização sem fins lucrativos que dizia querer uma IA para o bem da humanidade, evitando o apocalipse.
Há outros medos além da extinção da humanidade rondando a inteligência artificial. As cassandras da vez alertam também para IAs criando armas biológicas inéditas, destruindo o mundo por acidente ou manipulando humanos por vontade própria para influenciar a sociedade, entre outros pontos.
A maior parte desses riscos são apenas hipóteses e estão aquém das capacidades dos atuais modelos. A IA pode até ser uma ferramenta para quem quer criar armas biológicas, por exemplo, mas ainda não é capaz de fazer algo assim sozinha. Ou seja, o risco ainda é o ser humano.
Além disso, muitas das discussões nesse campo são conceituais e não passam de hipóteses. Uma teoria que ficou famosa na internet, por exemplo, diz que um dia os robôs vão buscar vingança contra aqueles que se opuseram ao desenvolvimento da IA.
Em crescimento acelerado, o mercado de IA é um cipoal de especulação, e não há bola de cristal para saber o futuro. Mas alguns críticos têm apontado um outro aspecto das teorias apocalípticas: elas podem servir como ferramentas de lobby nas mãos das próprias empresas de tecnologia.
A jornalista Karen Hao, no livro “Empire of AI”, em que conta a história da OpenAI, diz que a crença na superinteligência (um conceito abstrato) virou uma religião no Vale do Silício, como se fosse um destino inevitável. Com isso, os executivos defendem que é preciso acelerar seu desenvolvimento, para chegar antes da China, e conseguem frear iniciativas de regulação.
“A narrativa aceleracionista cria um pânico moral, falam em perigo vermelho, na China Há uma fé cega de que a tecnologia nos leva para frente e vai ser sempre melhor”, diz o antropólogo da tecnologia David Nemer, professor da Universidade da Virgínia.
A ideia de que a IA pode destruir a humanidade serviria a um propósito semelhante. Diante desse suposto risco, os CEOs se apresentariam como os únicos aptos a lidar com tal tecnologia e, portanto, como merecedores de mais investimentos para salvar o mundo.
Enquanto a discussão gira em torno de um futuro hipotético com a superinteligência, os problemas de agora -como a exploração de trabalho e impactos ambientais- ficariam de fora da conversa. Diante disso, o que Hao e outros especialistas pedem é que as pessoas lembrem seu poder de escolha.
“Tentamos combater o determinismo tecnológico, a ideia de que a tecnologia seja um vilão ou um herói de certo evento social, como se a sociedade não fosse dona do próprio destino”, diz Nemer.