Resumo objetivo:
Demis Hassabis, da DeepMind, alertou Elon Musk em 2012 que uma superinteligência artificial poderia ameaçar a humanidade mesmo em outros planetas, como Marte. Paralelamente, pesquisas mostram um aumento global do pessimismo em relação à IA, com cerca de metade da população em países como EUA e Brasil expressando preocupação. Embora os riscos existenciais e o impacto no emprego sejam temas recorrentes, dados econômicos atuais não indicam uma disrupção iminente no mercado de trabalho.
Principais tópicos abordados:
1. Riscos existenciais da IA: alertas sobre superinteligência e narrativas apocalípticas.
2. Percepção pública: crescimento do pessimismo em diversos países.
3. Impacto no mercado de trabalho: temores de desemprego em massa versus dados que ainda não confirmam uma ruptura radical.
4. Contexto histórico e cultural: paralelos com mitos (como o Golem) e visões de especialistas.
Não adianta fugir para Marte, a superinteligência vai perseguir a humanidade galáxia adentro. Foi esse o alerta que Demis Hassabis, CEO da Deepmind Technologies, fez a Elon Musk em 2012 numa cantina da SpaceX: nesse cenário, seria um fracasso o plano do bilionário de colonizar o planeta vermelho a fim de, alegadamente, salvar a espécie.
Com fixação na nova tecnologia âele compararia depois seu desenvolvimento a uma "invocação demonÃaca"â, o bilionário veio a se tornar um dos fundadores da OpenAI. à época, a empresa era só uma organização sem fins lucrativos que dizia querer uma IA para o bem da humanidade, evitando o apocalipse.
Narrativas catastróficas assim se confundem com a história da nova tecnologia, e mesmo seus maiores investidores as promovem. Mas o estouro das ferramentas de IA generativa vem acompanhado de um crescimento do pessimismo que alimenta tais perspectivas entre o público comum.
Os dados são mais abundantes nos Estados Unidos, é claro. Pesquisas anuais do Pew Research Center mostram que aqueles que se dizem mais preocupados do que animados com a nova tecnologia saltaram de 37% da população, em 2021, para 50%, em 2025. Já o número de otimistas caiu de 18% para 10% no mesmo perÃodo.
Outros paÃses relatam sentimentos parecidos. O Brasil, por exemplo, é a quarta nação que mais teme a IA: 48% relatam pessimismo com essas ferramentas. Além dos Estados Unidos, os brasileiros só ficam atrás dos italianos (50%) e dos australianos (49%) nesse quesito.
Não é para menos. O medo de que o homem possa destruir a si mesmo ao criar uma nova forma de inteligência a partir da matéria inanimada tem antepassados mÃticos. A tradição judaica, por exemplo, guarda a figura do golem, humanoide criado a partir do barro e palavras mágicas que, em algumas narrativas, torna-se perigoso. Com frequência é usado como metáfora para a IA.
No caso da inteligência artificial, as perspectivas apocalÃpticas não falam apenas do risco à existência humana. Alertam também para IAs criando armas biológicas inéditas, destruindo o mundo por acidente ou manipulando humanos por vontade própria para influenciar a sociedade, entre outros pontos.
A maior parte desses riscos são apenas hipóteses e estão aquém das capacidades dos atuais modelos. A IA pode até ser uma ferramenta para quem quer criar armas biológicas, por exemplo, mas ainda não é capaz de fazer algo assim sozinha. Ou seja, o risco ainda é o ser humano.
Em resumo, muitas dessas discussões são conceituais. Mas o apocalipse que, para muitos, já soa como algo concreto diz respeito a uma possÃvel destruição do mercado de trabalho, com robôs provocando desemprego em massa âem especial na era dos agentes de IA.
Claro, não faltam exemplos de cortes em massa atribuÃdos à nova tecnologia: no fim de fevereiro, por exemplo, a empresa de pagamentos Block demitiu 40% de sua força de trabalho e usou a IA como explicação. Mas uma companhia do mesmo ramo, a Klarna, também fez cortes agressivos entre 2022 e 2024 âno ano passado, contudo, anunciou que o serviço tinha caÃdo de qualidade e estava voltando atrás.
Mais do que exemplos anedóticos, o melhor é olhar os dados. E as informações do Bureau of Labor Statistics não mostram, até agora, nenhuma mudança radical no mercado de trabalho. A produtividade do trabalho no setor empresarial subiu 4,9% no terceiro trimestre de 2025; um número notável, dizem analistas, mas dentro da tendência esperada na série que começa nos anos 1940.
Os modelos mais rigorosos de previsão também não indicam um apocalipse à espreita. O economista Daron Acemoglu, ganhador do Nobel em 2024, é autor de um artigo influente no qual desenvolve um modelo para prever o impacto da IA na geração de riqueza. E conclui que haverá um crescimento de 0,1 ponto percentual adicional do PIB durante a próxima década.
Já Philippe Aghion, ganhador do Nobel em 2025, usa um modelo semelhante, mas chega a um número dez vezes maior: 1 ponto percentual ao ano, durante o mesmo perÃodo.
"Esse 1 ponto percentual ao ano é da mesma ordem de grandeza do crescimento com a tecnologia da informação e aceleração da produtividade entre 1995 e 2005", diz Samuel Pessôa, pesquisador do BTG Pactual e do FGV Ibre. "Não parece que a IA seja tão diferente de outros pacotes tecnológicos do passado. E parece que não dá para esperar uma disrupção tão grande no mercado de trabalho."
Apesar dessas previsões, uma pesquisa Reuters/Ipsos do ano passado mostrou que 71% dos americanos temem a perda permanente de postos de emprego. Outras ideias pessimistas também encontram apoio, como a afirmação de que a IA é ruim para a humanidade (48%) ou que pode ter consequências incontroláveis (67%).
à um clima azedo com consequências polÃticas. Enquanto o presidente americano Donald Trump promove os interesses das empresas de IA, a oposição a essas companhias cresce âinclusive na base republicana, 50% da qual se diz preocupada com essa tecnologia, segundo dados do Pew. Ao mesmo tempo, comunidades locais têm se organizado para se opor a projetos de data centers.
Em crescimento acelerado, o mercado de IA é um cipoal de especulação, e não há bola de cristal para saber o futuro. Mas alguns crÃticos têm apontado um outro aspecto das teorias apocalÃpticas: elas podem servir como ferramentas de lobby nas mãos das próprias empresas de tecnologia.
A jornalista Karen Hao, no livro "Empire of AI", em que conta a história da OpenAI, diz que a crença na superinteligência (um conceito abstrato) virou uma religião no Vale do SilÃcio, como se fosse um destino inevitável. Com isso, os executivos defendem que é preciso acelerar seu desenvolvimento, para chegar antes da China, e conseguem frear iniciativas de regulação.
"A narrativa aceleracionista cria um pânico moral, falam em perigo vermelho, na China⦠Há uma fé cega de que a tecnologia nos leva para frente e vai ser sempre melhor", diz o antropólogo da tecnologia David Nemer, professor da Universidade da VirgÃnia.
A ideia de que a IA pode destruir a humanidade serviria a um propósito semelhante. Diante desse suposto risco, os CEOs se apresentariam como os únicos aptos a lidar com tal tecnologia e, portanto, como merecedores de mais investimentos para salvar o mundo.
Enquanto a discussão gira em torno de um futuro hipotético com a superinteligência, os problemas de agora âcomo a exploração de trabalho e impactos ambientaisâ ficariam de fora da conversa. Diante disso, o que Hao e outros especialistas pedem é que as pessoas lembrem seu poder de escolha.
"Tentamos combater o determinismo tecnológico, a ideia de que a tecnologia seja um vilão ou um herói de certo evento social, como se a sociedade não fosse dona do próprio destino", diz Nemer.