O Espectro da Automação: Inteligência Artificial e a Dialética do Capital no Século XXI(Por Wallace Armani)

Parte 1: Introdução – O duplo caráter da inteligência artificial como fenômeno histórico

O espectro que assombra o capitalismo do século XXI não é mais o comunismo, mas a inteligência artificial – e, no entanto, como em 1848, a própria classe dominante não sabe como exorcizar as forças que desencadeou. Refletir criticamente sobre os impactos das IAs no mundo atual pelo prisma do pensamento marxista exige, antes de tudo, recusar duas posturas igualmente mistificadoras: a apologia tecnocrática, que vê na automação cognitiva a abolição do trabalho e a promessa de um lazer universal; e a catástrofe humanista, que lamenta a perda da essência humana diante das máquinas sem jamais perguntar por que essa essência foi, desde o princípio, um privilégio de classe. O que se propõe aqui é uma investigação imanente – aquela que Marx aplicou ao capital quando descobriu, nas dobras do sistema, não apenas a exploração, mas a possibilidade da sua superação.

As IAs não são entidades metafísicas. São agregados de relações sociais cristalizadas em código, dados extraídos da atividade pretérita e algoritmos que redistribuem poder e impotência. Para compreendê-las, é necessário retomar a categoria central da crítica da economia política: o trabalho como substância do valor. As IAs, por mais sofisticadas que pareçam, não criam valor autônomo – elas transferem valor, deslocam trabalho vivo, reconfiguram a composição orgânica do capital, mas jamais abolem a lei do valor. Apenas a ocultam sob camadas mais espessas de mediação. O que se pretende neste ensaio é desocultar essas mediações, camada por camada, sem a muleta de citações acadêmicas, confiando apenas na força do conceito e na atualização da dialética para um terreno que o próprio Marx não chegou a ver, mas cujas determinações fundamentais ele forneceu.

A hipótese central que orientará toda a exposição é a seguinte: as IAs representam a forma mais avançada de subsunção real da sociedade ao capital, na medida em que automatizam não apenas a produção material, mas a própria produção de decisões, de normas e de subjetividades; no entanto, ao fazer isso, elas criam as condições materiais para uma crise sistêmica sem precedentes, uma vez que a tendência à queda da taxa de lucro é acelerada pela substituição generalizada do trabalho vivo – a única fonte de mais-valia – e o capital responde com estratagemas cada vez mais violentos e irracionais, que incluem a fabricação artificial de escassez, a financeirização de modelos preditivos e a colonização do inconsciente coletiva.

Para desenvolver essa hipótese, dividiremos o ensaio em oito grandes blocos, cada um correspondente a uma dimensão analítica: (1) a economia política fundamental das IAs – mais-valia, predição e capital fictício; (2) a ontologia do trabalho algorítmico – o proletariado de dados e a fragmentação da classe; (3) a reificação 2.0 – fetichismo algorítmico e a colonização da subjetividade; (4) a história política da acumulação primitiva permanente – a IA como expropriação da experiência; (5) a geopolítica do hardware e do software – divisão internacional do trabalho cognitivo; (6) as contradições internas da IA no capitalismo – bolhas, crashes e a impossibilidade da automação total; (7) a ideologia da inevitabilidade – como o capital naturaliza seus próprios produtos; (8) perspectivas de superação – lacunas, contracondutas e a construção de uma inteligência coletiva para além do valor.

Parte 2: O fundamento econômico – para além da mais-valia relativa

Toda investigação marxista sobre um fenômeno novo deve começar pela pergunta: como esse fenômeno se relaciona com a produção e a extração de mais-valia? As IAs, à primeira vista, parecem desafiar o quadro clássico. Se uma máquina substitui completamente o trabalho humano, de onde vem o lucro? Se o capital variável tende a zero, para onde vai a fonte de valor? Esta é a aporia que tem atormentado tanto os críticos quanto os apologetas da automação. Os últimos respondem com a promessa de um “capitalismo sem trabalho” – uma contradição nos termos que só se sustenta na ignorância da teoria do valor. Os primeiros, muitas vezes, caem num pessimismo estéril: o capital estaria cavando sua própria sepultura, mas tão depressa que os trabalhadores não teriam tempo de organizar o funeral.

Precisamos de maior fineza dialética. É verdade que Marx argumentou, nos Grundrisse, que o desenvolvimento do maquinismo tenderia a reduzir o tempo de trabalho socialmente necessário a ponto de tornar o valor – tempo de trabalho cristalizado – uma medida cada vez mais inadequada para a riqueza real. Mas ele nunca afirmou que, no capitalismo, essa tendência poderia se realizar completamente. Pelo contrário: o capitalismo só pode existir enquanto o valor (e, portanto, o trabalho abstrato) for seu regulador central. Se o trabalho vivo desaparecesse, o sistema implodiria. As IAs, portanto, são introduzidas exatamente na medida em que não abolem o trabalho vivo, mas o reconfiguram, o comprimem, o fragmentam e o expulsam para setores invisíveis.

A categoria clássica da mais-valia relativa – obtida pela redução do tempo de trabalho necessário através do aumento da produtividade – ainda opera, mas assume novas formas. Uma fábrica automatizada com robôs e IAs de controle produz mais mercadorias em menos tempo, mas o valor de cada mercadoria cai. O lucro total só aumenta se o volume de mercadorias vendidas crescer mais do que proporcionalmente à queda do valor unitário – o que exige expansão constante do mercado (imperialismo, globalização, publicidade algorítmica). Até aqui, nada de novo sob o sol. A novidade reside no fato de que as IAs são aplicadas não apenas na produção de mercadorias, mas na própria gestão da força de trabalho como mercadoria. A Uber não produziu um carro; produziu um serviço de transporte cujo “meio de produção” é um algoritmo que distribui tarefas a motoristas autônomos (no sentido jurídico, não técnico). Nesse modelo, a mais-valia relativa é obtida pela redução dos tempos mortos do trabalho – o algoritmo calcula a rota ótima, minimiza a espera, maximiza o número de corridas por hora. Mas note-se: o trabalho vivo não desapareceu. Ele foi apenas submetido a uma disciplina mais rigorosa, mediada por um dispositivo que parece impessoal, mas que carrega as decisões da central.

No entanto, essa explicação ainda é insuficiente. Ela não dá conta do fenômeno mais espetacular das últimas décadas: empresas gigantescas (Google, Meta, Amazon) que geram lucros astronômicos com uma quantidade relativamente pequena de trabalhadores diretamente produtivos. Como é possível? A resposta tradicional aponta para os monopólios de plataforma, a captura de rendas de rede, o controle sobre os dados dos usuários. Tudo correto, mas insuficientemente radical. Precisamos de um conceito novo: a mais-valia de predição.

Eis seu núcleo: em todo processo de produção capitalista, existe um intervalo entre o investimento inicial (capital constante + capital variável) e a realização do valor na venda da mercadoria. Durante esse intervalo, o capital está exposto à incerteza – a mercadoria pode não vender, o preço pode cair, a demanda pode mudar. O risco é inerente à produção para o mercado. As IAs reduzem esse risco ao oferecer predições probabilísticas sobre comportamentos futuros de consumo, flutuações de preços, gargalos logísticos. Quanto mais precisa a predição, menor o tempo necessário para ajustar a produção à demanda, e menor o desperdício de capital constante ocioso. Esse ganho de eficiência se traduz em mais-valia: o capital que antecipa corretamente o futuro realiza um valor maior do que aquele que reage tarde.

Mas de onde vem essa mais-valia? Não do trabalho diretamente incorporado no algoritmo – embora ele, evidentemente, o contenha. Vem do trabalho total da sociedade cuja atividade passada foi capturada como dado, processada e transformada em modelo preditivo. Quando você clica em “curtir” ou “não curtir”, quando você passa o mouse sobre um link, quando você hesita diante de um preço – você está produzindo, sem saber, a matéria-prima para a predição. E essa matéria-prima é expropriada gratuitamente (ou em troca de um serviço aparentemente gratuito) pela plataforma. O algoritmo não cria valor – ele direciona o valor criado alhures, concentrando-o no ponto da predição bem-sucedida. A mais-valia de predição é, portanto, uma forma de transferência de valor da periferia do sistema (os usuários que geram dados, os trabalhadores fantasma que anotam esses dados, os consumidores que seguem as recomendações) para o centro (as empresas detentoras dos modelos).

Um exemplo concreto: um hedge fund que usa IA para prever movimentos de ações e obtém lucro acima da média. Esse lucro não vem de nenhuma produção real; vem da redistribuição especulativa de valor existente. A IA não criou riqueza nova; ela apenas permitiu que um capitalista se apropriasse do que, de outra forma, iria para outro. A mais-valia total da sociedade não aumentou – mas sua distribuição tornou-se mais desigual, favorecendo quem controla os meios de predição.

Isso nos leva a uma conclusão desconfortável: a IA, no capitalismo, não é uma força produtiva neutra que poderia ser facilmente socializada. Ela é, antes de tudo, um meio de concentração e centralização do capital que opera via controle da informação assimétrica. Quem prediz melhor extrai mais-valia não porque produz mais, mas porque se apropria melhor da produção alheia. E essa apropriação não é parasitária no sentido vulgar – ela é estrutural. O capitalismo sempre dependeu da assimetria de informação entre capitalista e trabalhador, entre vendedor e comprador. A IA leva essa assimetria a um grau até então inimaginável: o algoritmo conhece seus desejos antes de você; sabe quando você vai desistir de uma compra; sabe qual preço você aceitaria se estivesse desesperado. O resultado é a supressão virtual do espaço de barganha, a erosão da soberania do consumidor (que nunca foi plena, mas agora é uma ficção grotesca) e a transformação do trabalho em uma relação de pura obediência a comandos probabilísticos.

Parte 3: A ontologia do trabalho algorítmico – proletariado de dados, fragmentação e a crise do sindicalismo

Se a economia política das IAs nos ensina algo, é que o trabalho vivo não desapareceu – ele foi deslocado, reconfigurado e, em grande medida, ocultado sob camadas de mediação algorítmica. A consequência mais importante para a sociologia política marxista é a emergência do que chamarei de proletariado de dados: um estrato heterogêneo de trabalhadores cuja função central é produzir, limpar, anotar e validar os conjuntos de dados que alimentam os modelos de IA, ou então operar sob a supervisão algorítmica em plataformas digitais.

Este proletariado não se parece com o operário fabril do século XIX. Não tem um chão de fábrica comum, não compartilha o mesmo turno, muitas vezes não fala a mesma língua. Ele está distribuído geograficamente: os anotadores de imagens treinam IAs para carros autônomos na Venezuela, no Quênia e nas Filipinas – pagos por tarefa, sem quaisquer direitos trabalhistas, sem acesso a seguro-saúde ou aposentadoria. O trabalho é realizado em plataformas como Amazon Mechanical Turk ou Appen, onde a concorrência é global e os salários são rebaixados ao mínimo que o mercado suporta – frequentemente abaixo de US$ 2 por hora. A relação de emprego é dissolvida em uma miríade de contratos temporários, microtarefas e classificações de reputação que o próprio algoritmo controla.

Do ponto de vista da teoria de classes, isso representa um desafio formidável. Na tradição marxista, a classe em si (classe como posição objetiva na produção) torna-se classe para si (classe como sujeito político consciente) quando as condições materiais de trabalho criam uma experiência comum de exploração, quando a concentração espacial e a rotina homogênea permitem a formação de laços de solidariedade e de organização coletiva. O proletariado de dados, ao contrário, é atomizado por design. As plataformas digitais não apenas fragmentam a localização dos trabalhadores – elas fragmentam a própria percepção do que é a exploração. O microtrabalhador que anota imagens de semáforos não vê o produto final do seu trabalho; não sabe que seu esforço está contribuindo para um carro autônomo que, no futuro, poderá substituir motoristas de táxi. Ele ou ela vê apenas uma tela com instruções, um cronômetro e uma promessa de pagamento. A alienação atinge aqui seu grau máximo: o trabalhador não se aliena do produto (pois nunca o vê), mas da própria finalidade de seu trabalho. Trabalha para o algoritmo, como se fosse um sub-rotina a serviço de um sistema cuja inteligibilidade lhe escapa.

Isso produz consequências políticas devastadoras. Os sindicatos tradicionais, criados para negociar condições de trabalho em fábricas e escritórios estáveis, mostram-se impotentes diante desse proletariado disperso. As tentativas de organizar trabalhadores de plataforma (como os entregadores do iFood ou da Uber Eats) têm obtido sucesso apenas parcial, precisamente porque o algoritmo pode substituir um trabalhador insubordinado por outro em questão de segundos. A greve clássica – a paralisação coletiva da produção – torna-se difícil quando a produção está fragmentada em milhões de microtarefas que podem ser redistribuídas globalmente. Há, porém, experiências recentes de formas inovadoras de luta: greves de avaliação (em que trabalhadores combinam dar notas baixas uns aos outros para forçar a plataforma a renegociar), ataques de desaceleração (trabalhar no limite do prazo sem ultrapassá-lo, reduzindo a produtividade geral), e a criação de cooperativas de dados (em que os próprios trabalhadores detêm a propriedade dos datasets que geram). Mas essas são sementes ainda frágeis, sufocadas por leis trabalhistas anacrônicas e pela repressão violenta que Estados e corporações mobilizam contra qualquer tentativa de organização.

Outro aspecto crucial é a hierarquia de precariedade dentro desse proletariado. Não se trata de uma massa homogênea. Há, no topo, os trabalhadores da economia de plataforma em países centrais: entregadores, motoristas de aplicativo, diaristas digitais – que, embora precários, ainda têm acesso a algum nível de proteção social (mesmo que mínima) e a salários mais altos. Abaixo, os microtrabalhadores de países periféricos, cuja única vantagem competitiva é a desesperação. E no fundo do poço, os trabalhadores das minas de cobalto na República Democrática do Congo, cujo trabalho manual extrai o mineral essencial para as baterias dos servidores e dispositivos que rodam IAs – um elo da cadeia que raramente é mencionado nas discussões sobre automação cognitiva, mas que é materialmente indispensável. Nesse sentido, a IA global é um sistema de extração colonial renovado: o Sul global fornece a matéria-prima (minerais), a força de trabalho invisível (anotação) e os mercados de consumo (usuários finais), enquanto o Norte global concentra o valor, a propriedade intelectual e a decisão política sobre os usos da tecnologia.

O que a tradição marxista, com seu foco no operário industrial masculino do Ocidente, não conseguiu antecipar foi a pulverização da experiência de classe como condição para a consciência de classe. A resposta a esse problema não pode ser um retorno nostálgico à fábrica, mas uma expansão do conceito de luta de classes para incluir a luta pela infraestrutura cognitiva. Não basta reivindicar melhores salários – é preciso reivindicar a propriedade coletiva dos datasets, a transparência dos algoritmos, o direito à desconexão e, acima de tudo, o direito de não ter sua experiência transformada em dado sem consentimento informado e sem remuneração justa. Esta última exigência, no entanto, nos leva a um paradoxo: se todo trabalhador recebesse o valor integral dos dados que produz, o sistema capitalista da IA entraria imediatamente em colapso, porque a mais-valia de predição desapareceria. E é exatamente por isso que a luta pelo reconhecimento do trabalho de dados é, em última instância, uma luta anticapitalista.

Parte 4: Reificação 2.0 – fetichismo algorítmico e a colonização da subjetividade

A crítica da economia política não se esgota na análise da produção e distribuição do valor. Ela exige, sobretudo, uma crítica da forma – aquela pela qual as relações sociais de exploração aparecem como propriedades naturais das coisas. Marx chamou esse fenômeno de fetichismo da mercadoria: numa sociedade em que o trabalho privado se torna social apenas através da troca, os produtos do trabalho assumem a forma fantasmagórica de valores, como se carregassem em si mesmos um atributo metafísico. As IAs elevam essa inversão a um novo patamar – o fetichismo algorítmico.

Não se trata mais de uma coisa inerte que parece ter vida (como a mesa que dança diante do mercador). Trata-se de um sistema que efetivamente exibe comportamentos análogos à vida: aprende, adapta-se, responde, antecipa. O algoritmo não é um fetiche apenas porque as pessoas lhe atribuem poderes que ele não tem; é um fetiche porque, mesmo sendo produto do trabalho humano, opera com uma autonomia funcional que oculta completamente seu caráter social. O usuário comum não vê os milhões de horas de trabalho de anotação, os servidores consumindo energia de usinas a carvão na Virgínia, os trabalhadores da mina de cobalto no Congo. Vê apenas uma tela que parece adivinhar seus pensamentos. A resposta correta dada pela Netflix sobre o próximo filme, pela Amazon sobre o próximo produto, pelo Google sobre a próxima pesquisa – é experimentada como magia, ou como evidência da superioridade técnica do capitalismo. Nunca como o resultado de um imenso processo de extração de trabalho morto.

As consequências desse fetichismo para a subjetividade são ainda mais profundas do que no capitalismo clássico. A mercadoria fetiche ainda mantinha uma distância entre o sujeito e o objeto: o trabalhador sabia, pelo menos, que havia produzido aquela mercadoria, mesmo que a relação de produção lhe fosse ocultada. O algoritmo, por outro lado, age diretamente sobre o comportamento, moldando-o antes mesmo que a consciência possa intervir. Chama-se a isso “viés de confirmação algorítmica”: você recebe recomendações que reforçam seus gostos declarados, e passa a acreditar que seus gostos são mais estáveis do que realmente são. Com o tempo, você não escolhe mais – você reage ao que o algoritmo lhe mostra. A liberdade de escolha do consumidor, que nunca foi plena, torna-se agora uma liberdade de escolher entre opções que já foram pré-selecionadas para maximizar o engajamento, o consumo e a extração de dados. É o que poderíamos chamar de subsunção real da vontade: não apenas a força de trabalho é subordinada ao capital, mas os próprios desejos, afetos, dúvidas e hesitações são modelados para servir à acumulação.

Mas há uma segunda dimensão ainda mais insidiosa. O fetichismo algorítmico não atua apenas sobre a subjetividade do consumidor – atua sobre a autopercepção do trabalhador. Quando um gerente de recursos humanos usa uma IA para avaliar candidatos, o trabalhador passa a acreditar que o veredito do algoritmo é mais “objetivo” e “justo” do que o julgamento humano – mesmo quando a IA reproduz vieses racistas, sexistas e classistas contidos nos dados históricos. Mais grave: quando o próprio trabalhador é submetido a uma avaliação algorítmica de desempenho (quão rápido você atendeu ao cliente, quantas pausas fez, quantas vezes sorriu para a câmera), ele internaliza o critério do algoritmo como medida de seu valor moral. A baixa pontuação não é interpretada como exploração, mas como fracasso pessoal. A IA, nesse contexto, funciona como um dispositivo de produção de culpabilidade individual – desvia a raiva que seria dirigida ao sistema para uma autodepreciação incessante.

Isso nos leva à análise da reificação 2.0. Na teoria lukacsiana, a reificação era o processo pelo qual as relações sociais entre homens assumem a forma de coisas – a consciência do trabalhador torna-se contemplativa, adaptando-se às leis supostamente eternas do mercado. Com as IAs, a reificação adquire um caráter ativo: as coisas (algoritmos) não apenas determinam as relações entre os homens, mas substituem os homens em funções que exigiam até pouco tempo atrás subjetividade. Quando um chatbot de atendimento ao cliente resolve sua reclamação, você não sabe se está dialogando com uma pessoa ou com uma máquina; e, no limite, não importa – a relação social foi inteiramente mediada, e o outro humano foi retirado da equação. O resultado é uma solidão sistêmica: você está cercado de interfaces que simulam interação, mas toda a obrigação moral que existe entre humanos é abolida. Você pode xingar o chatbot, pode tratá-lo com desprezo – nada acontece. E esse treinamento cotidiano na indiferença aos sentimentos de um interlocutor que, afinal, não tem sentimentos, acaba por corroer a própria capacidade de empatia com humanos reais. A IA não apenas explora; ela deseduca afetivamente para a vida em comum.

Há, porém, um aspecto ainda pouco explorado pela crítica marxista: o fetichismo algorítmico não é estável. Ele contém em si uma contradição que pode se voltar contra o sistema. Se o algoritmo é opaco, ele também é, potencialmente, desmascarável. Os erros grotescos das IAs – um gerador de imagens que produz mãos com seis dedos, um sistema de reconhecimento facial que confunde um parlamentar negro com um gorila – são momentos de ruptura do fetiche. Por um instante, aquilo que parecia onisciência revela sua idiotice fundamental: a IA não sabe o que faz, apenas calcula probabilidades. Ela não entende o mundo; apenas o modela estatisticamente a partir de dados que carregam os preconceitos de quem os produziu. Nessa fresta, na surpresa diante do erro grotesco, pode emergir a pergunta crítica: quem programou isso? Para quem? Com quais dados? E por que aceitamos ser governados por sistemas que não entendem o que é justiça, mas apenas o que é frequente?

A tarefa de uma teoria crítica da subjetividade algorítmica é, portanto, dupla: destruir a aparência de necessidade natural do algoritmo, mostrando sua gênese social e política; e, simultaneamente, recuperar a dimensão de luta na própria experiência cotidiana com as IAs. O usuário frustrado com uma recomendação absurda, o trabalhador penalizado por um critério que não entende, o jovem que percebe que seu feed foi manipulado para extremizá-lo politicamente – todos esses são momentos de um despertar fragmentário que, se organizado, pode se transformar em recusa ativa. Mas isso exige que a crítica deixe de ser privilégio acadêmico e se torne uma pedagogia da desconfiança. Não basta denunciar o algoritmo; é preciso ensinar a lê-lo contra si mesmo, a encontrar seus pontos cegos, a criar ruído que confunda seus modelos. A reificação nunca é total; ela deixa sempre um resto – o resto da experiência viva que escapa à quantificação. Proteger esse resto é uma forma de luta de classes no terreno da subjetividade.

Parte 5: História política do presente – a IA como acumulação primitiva permanente

Se a sociologia política nos mostra a fragmentação do proletariado, e a filosofia política revela a reificação algorítmica, cabe à história política – aquela que não se contenta com a superfície dos eventos, mas busca as estruturas de longa duração – situar as IAs num processo que começou muito antes do surto recente do deep learning. O conceito marxiano de acumulação primitiva designa o processo violento pelo qual os meios de produção foram separados dos produtores diretos, criando a condição para o capitalismo: de um lado, uma massa de trabalhadores livres (no duplo sentido: livres da servidão e livres de propriedade) e, de outro, capitalistas possuidores dos meios de produção. Este processo não foi um evento único no século XVI; ele se reproduz em cada nova onda de expansão capitalista, expropriando novas terras, novos commons, novas atividades humanas.

As IAs representam a acumulação primitiva permanente aplicada à esfera cognitiva. O que está sendo expropriado agora não são terras comuns ou ferramentas artesanais, mas a experiência humana como matéria-prima. Cada busca no Google, cada conversa no WhatsApp, cada trajeto registrado pelo Waze – tudo isso era, até muito recentemente, uma atividade não mercantil, parte da vida cotidiana que não gerava valor para o capital. As plataformas transformaram esses atos em dados, e os dados em ativos. A expropriação aqui é sutil: você não perde a propriedade de seus passos, mas o capital passa a deter o direito de usá-los para predizer seus movimentos futuros, moldar suas escolhas e vender essa capacidade preditiva a terceiros. É uma expropriação sem despossessão aparente – você ainda tem seus dados (cópias deles permanecem em seu celular), mas perdeu o controle sobre o que eles significam e como são usados. Esse é o traço distintivo da acumulação primitiva digital: a propriedade formal é mantida, mas a substância do valor foi transferida.

A história política nos ensina que toda acumulação primitiva foi acompanhada de violência direta: cercamentos na Inglaterra, genocídio nas Américas, escravidão na África. No caso das IAs, a violência é menos visível, mas não menos real. As minas de cobalto no Congo são operadas em condições semiescravistas, com trabalho infantil e mortalidade altíssima – o cobalto, recorde-se, é essencial para as baterias de laptops e servidores. Os centros de dados (data centers) que rodam os modelos de IA consomem água em quantidades absurdas em regiões já afetadas pela seca (o Google consumiu 15 bilhões de litros de água em 2021 para resfriar seus servidores). Os trabalhadores fantasma que anotam imagens em países do Sul global são submetidos a jornadas de até 14 horas diárias, recebem por tarefa (o que os obriga a acelerar ao ponto de erro patológico) e são demitidos automaticamente se a precisão cair abaixo de um limiar. E há a violência epistêmica: quando um algoritmo de recrutamento rejeita sistematicamente currículos com nomes de origem africana ou indígena, ele está realizando uma violência simbólica que reforça hierarquias raciais seculares. A acumulação primitiva nunca foi um processo limpo; a IA não poderia ser exceção.

Mas a originalidade histórica das IAs reside num outro fator: elas tornam possível uma acumulação primitiva de segunda ordem – a expropriação não apenas do trabalho presente, mas do trabalho passado e futuro. Os modelos de linguagem como o GPT são treinados em bilhões de textos extraídos da web, muitos dos quais protegidos por direitos autorais. O capital está se apropriando do trabalho intelectual acumulado da humanidade – romances, artigos científicos, posts de fóruns, letras de música – sem pagar um centavo aos produtores originais. É o comum cognitivo sendo cercado pelo capital, transformado em propriedade privada de modelos fechados. Quando um escritor descobre que seu romance foi usado para treinar uma IA que agora pode produzir parágrafos em seu estilo, ele experimenta uma forma de alienação que nem mesmo Marx previu: seu trabalho passado, que ele imaginava concluído e sob seu controle, continua a gerar valor para outrem, sem que ele tenha qualquer participação. O trabalho morto devora o trabalho vivo não apenas no presente, mas apaga a fronteira temporal entre um e outro.

A resposta do capital a essa expropriação tem sido, previsivelmente, a judicialização e a regulamentação restritiva. Grandes empresas de IA pedem “segurança” e “ética” para que pequenos competidores não possam acessar os mesmos dados. Mas não se engane: a regulamentação que emerge das mãos do Estado capitalista não visa proteger os produtores de conteúdo, mas garantir que a expropriação se estabilize a favor dos monopólios já estabelecidos. As leis de direitos autorais serão adaptadas para permitir que as big techs continuem extraindo dados, enquanto pequenos empreendedores e projetos de código aberto serão sufocados por exigências burocráticas. A história política das IAs, portanto, não é a história de uma tecnologia que escapa ao controle, mas a história de uma luta pela definição das regras da expropriação – quem pode extrair, o quê, de quem, e mediante qual compensação (geralmente, nenhuma).

Por fim, a acumulação primitiva permanente cria as condições para a sua própria negação. Quanto mais os dados são expropriados e concentrados, mais a sociedade percebe que aquilo que lhe foi tirado – a capacidade de decidir coletivamente sobre os usos da experiência comum – era, afinal, um bem público. As lutas por dados abertos, por infraestruturas digitais públicas, por cooperativas de plataforma e por taxation das big techs são formas contemporâneas da luta contra os cercamentos. A diferença é que, no século XVI, os cercamentos criaram o proletariado industrial; hoje, os cercamentos cognitivos criam um proletariado de dados que, paradoxalmente, dispõe do instrumento (a própria tecnologia) para superar o cerceamento. A história não se repete, mas rima – e a rima aqui é inquietante.

Parte 6: As contradições internas – bolhas, crashes e a impossibilidade da automação total

Até agora, examinamos as IAs como fenômenos de sucesso – como instrumentos de extração de mais-valia, de controle do trabalho e de expropriação da experiência. Mas uma análise verdadeiramente dialética não pode ignorar o avesso: as IAs, no capitalismo, são permanentemente assombradas por suas próprias contradições internas, e essas contradições não são acidentais – são estruturais. O capitalismo não é um sistema que se aperfeiçoa linearmente; ele avança por crises, e as IAs, longe de serem a solução para a crise, tornaram-se um de seus motores mais potentes.

A primeira contradição reside na tendência à queda da taxa de lucro – a lei fundamental do movimento do capital que Marx formulou no terceiro livro de O Capital. Simplificando: à medida que o capital se torna mais intensivo em tecnologia (capital constante, sobretudo máquinas), e menos intensivo em trabalho vivo (capital variável, fonte da mais-valia), a taxa de lucro tende a cair. As IAs intensificam essa tendência de modo exponencial. Um sistema de IA que substitui cem trabalhadores por um punhado de engenheiros e servidores reduz drasticamente o capital variável. A mais-valia total pode até crescer no curto prazo, se o aumento da produtividade permitir ganhos de escala e de participação de mercado. Mas, no limite macroeconômico – quando toda a indústria adota práticas semelhantes –, o trabalho vivo total na economia diminui, e com ele a massa de mais-valia disponível para ser realizada como lucro. O resultado é uma pressão secular para baixo sobre a taxa de lucro agregada, que o capital tenta combater com novos estratagemas: aumento da exploração (intensificação do trabalho dos poucos trabalhadores restantes), redução dos salários reais, expansão para novas áreas geográficas (onde o trabalho vivo ainda é abundante) e, acima de tudo, financeirização.

A financeirização da IA é o fenômeno pelo qual as promessas de lucros futuros da automação são transformadas em ativos financeiros hoje, através de valuations astronômicos de empresas de IA que nunca deram lucro. A OpenAI, criadora do ChatGPT, perdeu centenas de milhões de dólares em 2023 antes de começar a gerar receita, mas foi avaliada em dezenas de bilhões. O capital fictício – títulos, ações, derivativos cujo valor não corresponde a produção real, mas a expectativas especulativas – alcança com a IA um novo patamar de irrealidade. As bolsas de valores tratam empresas de IA como se fossem a próxima revolução industrial, quando na verdade muitos de seus modelos são, economicamente falando, sumidouros de valor: custam imensas quantidades de energia, hardware e trabalho de anotação, e geram receitas incertas ou baseadas em práticas predatórias (como a venda de dados de usuários).

Isso nos leva à segunda contradição: a insustentabilidade energética e material da IA. Um modelo de linguagem de grande porte como o GPT-4 consome, para ser treinado, a eletricidade equivalente ao consumo anual de centenas de residências. Cada consulta ao ChatGPT gasta cerca de dez vezes mais energia que uma busca no Google. Os data centers que rodam essas IAs já respondem por cerca de 1% do consumo elétrico global – e a tendência é de crescimento vertiginoso. Essa energia, na quase totalidade dos casos, vem de fontes fósseis (carvão, gás) ou nucleares. A pegada de carbono da IA é imensa, e seu crescimento é incompatível com qualquer meta minimamente ambiciosa de descarbonização. O capital responde a isso com a mesma tática de sempre: externalizar os custos ambientais, construir data centers em regiões pobres onde as leis ambientais são frouxas e a população não tem poder de veto. Mas a contradição persiste: a IA, para sobreviver como indústria, precisaria de uma revolução energética que o capitalismo, por sua própria lógica de apropriação privada e lucro de curto prazo, é incapaz de realizar.

A terceira contradição é a obsolescência acelerada. As IAs evoluem tão rapidamente que o hardware usado para treinar um modelo hoje já será obsoleto em 18 meses. Isso gera um volume colossal de lixo eletrônico (e-waste) – toneladas de servidores, placas de vídeo, sistemas de refrigeração descartados e enviados para aterros no Sul global, onde trabalhadores informais extraem metais pesados a céu aberto, envenenando-se e contaminando aquíferos. O capital resolveu a contradição tornando-a um novo negócio – o negócio do descarte – mas não resolveu o problema de fundo: a produção de IAs é uma máquina de gerar desperdício material incompatível com a finitude do planeta. A resposta marxista a isso não é um apelo moralista à “sustentabilidade” (que o capital já cooptou como marketing verde), mas a constatação de que o modo de produção capitalista é inerentemente predatório e que, no limite, ele se autodestrói ao destruir suas próprias condições materiais de existência.

A quarta contradição – e talvez a mais aguda do ponto de vista da crítica imanente – é a impossibilidade da automação total. Já vimos que a IA depende de trabalho vivo oculto (anotadores, moderadores, trabalhadores das minas). Mas há algo mais profundo: os próprios modelos de IA, mesmo os mais avançados, geram sistematicamente erros – os chamados “alucinações” – que exigem correção humana. Um modelo de linguagem pode produzir um parágrafo perfeitamente construído que é completamente falso. Uma IA de diagnóstico médico pode identificar um padrão estatístico que nenhum humano veria, mas também pode confundir uma sombra num exame com um tumor. Para que o sistema funcione, é necessário um humano na última instância – o motorista que retoma o controle do carro autônomo quando o algoritmo hesita, o médico que revisa o diagnóstico da IA, o juiz que decide se aceita a recomendação da IA de sentença. O capital gostaria de eliminar esse humano, mas não pode – o humano é o corretor final do erro algorítmico. Sem ele, o sistema colapsaria sob o peso de suas próprias falhas. O trabalho vivo não é apenas expropriado; ele é, simultaneamente, indispensável como garantia da última instância. E essa indispensabilidade é uma contradição explosiva: se o trabalhador sabe que sua demissão levaria ao colapso do sistema, ele detém um poder de barganha que a teoria clássica não antecipava. O desafio é organizar essa consciência.

A quinta contradição é a crise de realização. As IAs tornam a produção incrivelmente eficiente, mas não criam, por si mesmas, capacidade de consumo equivalente. Pelo contrário, ao substituir trabalhadores, elas reduzem a massa salarial e, portanto, o poder de compra da sociedade. O resultado é a velha contradição marxista entre produção e realização: produz-se muito mais do que se pode vender, porque quem produz não tem renda para comprar. As IAs aceleram essa contradição ao extremo. No limite, se a automação se generalizasse, a humanidade produziria bens sem fim, mas ninguém teria dinheiro para comprá-los – e o capital, incapaz de realizar o valor, entraria em convulsão. Esse é o pesadelo lógico do capital: ser vítima de seu próprio sucesso técnico. As soluções tentadas – crédito ao consumidor, endividamento privado, assistencialismo condicionado – são paliativos que apenas adiam o colapso, acumulando dívidas impagáveis.

Tudo isso nos permite formular uma hipótese ousada: as IAs são o caso mais extremo de irracionalidade sistêmica do capitalismo. Afinal, o que poderia ser mais irracional do que desenvolver tecnologias que tornam o trabalho humano desnecessário, mas que, ao mesmo tempo, destroem a base de consumo que torna a produção viável? O que poderia ser mais irracional do que inundar o mundo com dispositivos inteligentes cuja produção destrói o planeta que os abriga? O que poderia ser mais irracional do que construir máquinas que alucinam e precisam de humanos para corrigi-las, mas que são usadas para demitir esses mesmos humanos? A IA não é, como gostam de dizer os futuristas, o “próximo passo da evolução”. É o sintoma de um modo de produção que perdeu qualquer contato com a racionalidade substantiva, com as necessidades reais dos seres humanos, e que dança desesperadamente sobre a corda bamba da especulação financeira, enquanto embaixo se abrem os abismos ecológico, social e político.

A história política das crises do capitalismo – 1873, 1929, 2008 – ensina que tais contradições não permanecem indefinidamente latentes. Elas explodem. Quando a bolha da IA estourar (e ela estourará, como estouraram a bolha das ponto-com, a bolha do subprime, a bolha das criptomoedas), o que restará? Não apenas perdas financeiras, mas uma massa de trabalhadores desempregados por automação, sem perspectiva de recolocação; um planeta mais aquecido; uma infraestrutura digital obsoleta; e uma geração inteira acostumada a delegar a cognição a máquinas escravas. Nesse cenário, a única saída racional será a que o capital jamais aceitará: a reapropriação coletiva dos meios de produção algorítmicos, a redução planejada da jornada de trabalho para que todos compartilhem os ganhos de produtividade, e o redirecionamento da pesquisa em IA para fins sociais (saúde, educação, agroecologia) em vez de fins comerciais. Mas isso não acontecerá por decreto – acontecerá porque a classe trabalhadora, em suas múltiplas formas, será forçada pelas circunstâncias a tomar o poder sobre a tecnologia.

Parte 7: Geopolítica do código – a divisão internacional do trabalho cognitivo e o imperialismo de dados

Até agora, a análise manteve-se predominantemente no nível das relações sociais abstratas – capital, trabalho, mais-valia – e das contradições sistêmicas. Mas o pensamento marxista não pode ignorar a dimensão geopolítica. O capitalismo sempre foi um sistema mundial, com centros e periferias, metrópoles e colônias, exploração direta e troca desigual. As IAs aprofundam essa divisão, mas também a transformam. Não se trata mais apenas de exportar manufaturados e importar matérias-primas; trata-se de uma nova divisão internacional do trabalho cognitivo, na qual o Sul global fornece a matéria-prima (dados brutos, minerais estratégicos, força de trabalho de baixo custo para anotação) enquanto o Norte concentra os algoritmos, a propriedade intelectual e o poder de decisão sobre a arquitetura das redes.

Comecemos pela materialidade mais dura: os minerais estratégicos. Toda IA pressupõe hardware – chips, servidores, cabos submarinos, estações de recarga. Os chips mais avançados (GPUs, TPUs) requerem silício de altíssima pureza, metais raros como índio, gálio e tântalo, e, sobretudo, cobalto e lítio para as baterias que alimentam o sistema de refrigeração dos data centers (quando não a própria eletrônica portátil). As maiores reservas de cobalto do mundo estão na República Democrática do Congo – país que, por ironia da história, foi o palco de um dos mais brutais regimes coloniais sob o rei Leopoldo II da Bélgica. Hoje, as minas de cobalto são operadas por empresas multinacionais em condições que lembram a escravidão por dívida: trabalhadores manuais, incluindo crianças, cavam túneis instáveis sem equipamento de proteção, recebendo migalhas. O “cobre da IA” não chega a ser sangue de diamante, mas carrega a mesma assinatura de violência extrativista. O capitalismo de plataforma, que se apresenta como leve, limpo e imaterial, está assentado sobre ossos congelados em valas congolesas. O Norte global não poderia ter suas IAs sem o Sul global como fornecedor de última instância desses minerais – e essa dependência é sistematicamente ocultada pelo discurso da “revolução digital sustentável”.

Mas há uma forma ainda mais sutil de divisão internacional do trabalho: o trabalho de anotação. Os modelos de aprendizado de máquina supervisionado exigem datasets massivos rotulados por humanos. Para reconhecer um gato, a IA precisa ver milhares de imagens de gatos previamente marcadas por alguém. Quem faz essa marcação? Trabalhadores em plataformas como Appen, Scale AI, Clickworker – concentrados no Quênia, Uganda, Índia, Filipinas, Venezuela. Pagam-se centavos por tarefa. O Salário médio de um anotador no Quênia é cerca de US$ 1,50 por hora – menos do que o custo de um café em São Francisco. Esses trabalhadores, muitas vezes com formação universitária (pois precisam entender instruções complexas), são forçados a aceitar essas condições porque a economia local não oferece alternativas. Eles não são “trabalhadores do conhecimento” no sentido nobre; são trabalhadores do reconhecimento de padrões – uma forma de trabalho cognitivo rebaixado à condição de tarefa mecânica, repetitiva, alienante. O Norte exporta a parte “criativa” e bem paga (arquitetura do modelo, pesquisa em deep learning) e importa a parte tediosa e mal paga. É a velha divisão internacional do trabalho da era industrial, agora transposta para o domínio dos bits.

Há uma ironia amarga nisso: o capitalismo cognitivo, que se vende como meritocrático (qualquer um com um laptop pode ser um inovador), na verdade reproduz e aprofunda a desigualdade global. As grandes empresas de IA estão sediadas em São Francisco, Seattle, Londres, Pequim, Shenzhen. Os trabalhadores fantasma estão em Nairóbi, Manila, Bangalore. A distância não é apenas geográfica – é também epistêmica: o anotador queniano não sabe que seu trabalho está treinando um carro autônomo que substituirá motoristas de táxi em Londres; não sabe que as imagens de semáforos que ele rotula farão parte de um sistema de vigilância urbana usado para reprimir protestos no Brasil; não sabe que as transcrições de áudio que ele digita serão usadas para treinar assistentes virtuais que, no futuro, poderão realizar seu próprio trabalho de anotação, tornando-o desnecessário. Ele trabalha para sua própria obsolescência, e essa inconsciência é a condição de possibilidade da mais-valia extraída dele.

A resposta tradicional da esquerda a essa geopolítica tem sido o protecionismo tecnológico: taxar importações de serviços digitais, subsidiar indústrias de IA locais, construir “nuvens soberanas”. Mas essa abordagem, além de reformista, corre o risco de simplesmente transferir a exploração do Norte para as próprias burguesias periféricas, que não são menos vorazes. O que seria necessário, de uma perspectiva socialista internacionalista, é a desconexão seletiva: recusar participar como fornecedor de trabalho anotador de baixo custo, exigindo que todo treinamento de IA seja feito nas mesmas condições que os trabalhadores do Norte desfrutam (salário mínimo, direitos trabalhistas, limites de jornada). Isso tornaria insustentável financeiramente o modelo atual de IA, pois a maior parte do lucro das big techs depende exatamente dessa arbitragem salarial global. A greve geral dos anotadores quenianos – que já começou a se esboçar com a formação de sindicatos de trabalhadores de plataforma no país – seria um evento de importância histórica comparável à greve dos estivadores de 1972 no Chile ou à greve geral de 1905 na Rússia. É a partir das periferias que o sistema pode ser quebrado, porque é lá que a contradição é mais nua: a miséria ao lado da abundância tecnológica, a invisibilidade ao lado da onipresença do capital.

Passemos agora à propriedade intelectual como instrumento de dominação imperialista. As patentes de algoritmos, as arquiteturas de redes neurais proprietárias, os datasets fechados – tudo isso forma um novo tipo de monopólio, comparável ao monopólio da máquina a vapor no século XIX. O capitalismo central detém os direitos sobre as IAs, e o Sul periférico paga licenças (quando não é simplesmente excluído). Existe, é verdade, um movimento de código aberto (open-source) de IAs, com modelos como LLaMA, BLOOM, Falcon. Mas, mesmo nesses casos, o controle efetivo sobre a infraestrutura – os servidores de treinamento, as GPUs, os datasets de grande escala – permanece na mão das grandes corporações, que frequentemente “doam” códigos abertos como estratégia para definir padrões e cooptar talentos. O código aberto no capitalismo não é um bem comum; é um estratagema de acumulação que permite às big techs externalizar custos de desenvolvimento e testar novas funcionalidades com uma comunidade de voluntários. A propriedade intelectual não está sendo abolida; está sendo relocalizada – dos algoritmos para os datasets, dos modelos para o hardware.

A geopolítica das IAs tem ainda um componente militar que não pode ser ignorado. Os mesmos modelos que recomendam filmes na Netflix podem ser usados para otimizar sistemas de armas autônomas. O reconhecimento facial que desbloqueia seu celular é a mesma tecnologia que o governo chinês usa para monitorar uigures, e que o governo dos EUA usa para rastrear imigrantes na fronteira com o México. As IAs são hoje o campo central da nova corrida armamentista entre potências – EUA, China, Rússia, União Europeia. O capital não precisa mais da guerra quente para acumular; a ameaça de guerra é suficiente para justificar orçamentos astronômicos para pesquisa militar em IA, que depois “vazam” para aplicações civis. Marx observou que o capitalismo desenvolve forças produtivas fenomenais, mas a serviço da destruição. As IAs são a expressão mais pura dessa contradição: potencialmente capazes de curar doenças, otimizar energia, democratizar o conhecimento – mas, sob o comando do capital e dos Estados-nação, tornam-se instrumentos de vigilância, controle e aniquilamento.

O que a análise geopolítica revela, em suma, é que as IAs não são um fenômeno homogêneo. Há IAs do Norte e IAs do Sul – as primeiras comandando, as segundas servindo. Mas também há fissuras. As tecnologias de criptografia, redes descentralizadas (blockchain, embora contaminadas pelo capital especulativo), comunicação de campo próximo – podem ser usadas para construir inteligências artificiais populares, treinadas em dados comunitários, geridas por cooperativas, livres da lógica do valor. O caminho não é rejeitar a tecnologia, mas disputá-la. E isso começa por reconhecer que a guerra de classes hoje é também uma guerra pela infraestrutura cognitiva – que é global, mas cujos pontos de estrangulamento (minas de cobalto, cabos submarinos, data centers, anotadores) estão amplamente localizados no Sul. Quem controla esses pontos pode paralisar o sistema. A geopolítica do código não é imutável; ela é o palco da luta de classes internacional.

Parte 8: Lacunas, contracondutas e a construção de uma inteligência coletiva para além do valor

Percorremos um longo caminho. Da economia política da mais-valia de predição à ontologia fragmentada do proletariado de dados; da reificação algorítmica e seu fetichismo à acumulação primitiva permanente que expropria a própria experiência; das contradições insolúveis do capitalismo de IA à geopolítica do código que recoloniza o Sul global. Em cada etapa, procuramos não apenas descrever, mas apontar fissuras – lugares onde o sistema, por mais poderoso que pareça, revela sua vulnerabilidade. Chegou o momento de enfrentar a pergunta mais difícil, aquela que a maioria dos críticos prefere evitar: o que fazer? Não no sentido de um receituário programático (nenhum intelectual sério, e muito menos um marxista dialético, ofereceria um plano de cinco pontos para a revolução), mas no sentido de indicar direções, lacunas do conhecimento a serem preenchidas pela práxis e hipóteses de ação coletiva que emergem da própria análise imanente.

8.1 As lacunas da produção do conhecimento – o que ainda não sabemos e por que isso importa

A academia, mesmo em suas vertentes críticas, tem produzido uma quantidade imensa de literatura sobre IAs: estudos de caso sobre vieses algorítmicos, etnografias de plataformas, análises de governança de dados, propostas de regulação ética. A maior parte desse conhecimento, porém, compartilha um defeito de origem: parte do pressuposto de que a tecnologia existe em um vácuo político, e que a tarefa do pesquisador é “mitigar danos” ou “projetar melhores algoritmos”. A perspectiva marxista aqui defendida aponta para lacunas muito mais radicais.

Primeira lacuna: a ausência de uma teoria da contradição específica da IA – sabermos que o capitalismo tende a crises, mas não temos um modelo detalhado de como uma economia intensiva em IAs entraria em colapso. Os economistas burgueses falam em “desemprego tecnológico” como um problema friccional. Nós precisamos de algo mais: um modelo que mostre, em termos quantitativos e dinâmicos, como a substituição do trabalho vivo pelo trabalho morto da IA leva a uma queda acelerada da taxa de lucro, e como o capital responde com financeirização, que por sua vez produz bolhas que estouram. Esse modelo ainda está por ser construído. Sem ele, ficamos no nível da intuição – correta, mas impotente.

Segunda lacuna: a ausência de uma fenomenologia da experiência do trabalho algorítmico – sabemos que os trabalhadores de plataforma sofrem, mas não sabemos, em detalhe, como se forma sua consciência de classe. Quais são os gatilhos que transformam a frustração difusa em recusa organizada? Como a mediação algorítmica afeta a percepção do tempo, do esforço, do outro? Quando um entregador percebe que o algoritmo está enganando sua rota para extrair mais trabalho não pago, que tipo de saber prático ele desenvolve? Essas perguntas exigem uma pesquisa etnográfica de longo prazo, feita por pesquisadores-militantes, não por observadores distantes. A lacuna indica que a universidade crítica ainda está muito aquém de seu objeto.

Terceira lacuna: a falta de uma teoria da subjetividade coletiva não antropocêntrica – as IAs nos obrigam a repensar o que significa “agência”. Não somos mais os únicos atores inteligentes no campo social; há agora quase-agentes (os algoritmos) que tomam decisões, mas sem consciência, sem responsabilidade, sem moral. Como pensar uma política de classe em um ambiente povoado por essas entidades? A tradição marxista sempre pressupôs um mundo de humanos contra humanos. As IAs exigem uma expansão do materialismo dialético para incluir a agência delegada – o poder que o capital confere a sistemas técnicos para agir em seu nome. Até onde sabemos, essa expansão teórica ainda não foi feita de maneira sistemática.

Quarta lacuna: a ausência de um inventário das contracondutas bem-sucedidas – há milhares de experiências de resistência à IA no capitalismo, mas elas são anedóticas, não sistematizadas, frequentemente desconhecidas umas das outras. Anotadores que criam scripts para sabotar a qualidade dos dados sem que o algoritmo perceba; motoristas de aplicativo que coordenam desacelerações por grupos de WhatsApp; comunidades que treinam IAs open-source em datasets locais para criar sistemas de saúde ou educação comunitários. Essas experiências são o equivalente contemporâneo das “greves selvagens” do início do sindicalismo. Mas ninguém as catalogou, analisou suas condições de sucesso e fracasso, e extraiu lições estratégicas. Preencher essa lacuna é tarefa urgente para uma historiografia política do presente.

8.2 Contracondutas – o que já está sendo feito e o que pode ser ampliado

A despeito das lacunas teóricas, a práxis não espera. Em todos os cantos do mundo, trabalhadores e comunidades experimentam formas de resistência que merecem ser chamadas de contracondutas algorítmicas – isto é, ações que não apenas reagem a um algoritmo, mas buscam subverter sua lógica de funcionamento, danificar sua infraestrutura, ou construir alternativas fora do seu domínio.

Contraconduta 1: a sabotagem de dados – se a IA aprende com dados, então a qualidade dos dados é seu ponto de estrangulamento. Trabalhadores anotadores podem deliberadamente introduzir ruído: rotular um gato como cachorro, marcar semáforos verdes como vermelhos, transcrever áudios com erros sistemáticos. Isso não é mera negligência; é uma forma de luta de classes que corrompe o ativo mais valioso do capital. As plataformas respondem com verificações de qualidade, mas essas verificações também podem ser burladas por ação coordenada. A sabotagem de dados é o piquete de greve do proletariado digital.

Contraconduta 2: a greve de precisão – em vez de parar totalmente o trabalho (o que resulta em demissão imediata), os trabalhadores de plataforma podem reduzir sua produtividade até o limite mínimo que o algoritmo tolera, realizando exatamente o número de tarefas que evita o bloqueio, mas com o máximo de atraso. Essa “greve de tartaruga” já foi usada por entregadores de aplicativo na China e na Espanha, forçando as plataformas a renegociar bônus e tarifas. O algoritmo não distingue entre lentidão voluntária e congestionamento real; a ambiguidade é uma arma.

Contraconduta 3: a construção de datasets comuns – se os dados são expropriados, porque não reapropriá-los coletivamente? Há experiências nascentes de cooperativas de dados, em que comunidades se organizam para produzir e manter datasets abertos, licenciados sob copyleft, e treinar seus próprios modelos de IA para necessidades locais (tradução de línguas ameaçadas, previsão de safras para agricultura familiar, diagnóstico de doenças endêmicas). Esses projetos não são autônomos do capital – ainda dependem de hardware e energia comprados no mercado – mas criam uma infraestrutura alternativa que pode, em crise, ser expandida rapidamente.

Contraconduta 4: a desobediência civil algorítmica – usuários finais podem subverter as IAs que os controlam. Ferramentas como “AdNauseam” (que clica em todos os anúncios para confundir o perfil publicitário) ou “TrackMeNot” (que gera buscas falsas para obscurecer o histórico real) são formas de resistência individual. Mas a escala coletiva é mais potente: ataques de força bruta coordenados contra APIs de IA, gerando consultas em massa que saturam os servidores e elevam os custos operacionais das big techs. Isso beira a sabotagem digital, e levanta questões táticas e legais, mas é válido como indicador de que a arquitetura da IA não é invulnerável.

Contraconduta 5: a recusa da predição – a forma mais radical de resistência talvez seja a mais simples: recusar-se a gerar dados. Não clicar em “concordo”, não permitir rastreamento, usar navegadores que bloqueiam scripts, pagar em dinheiro vivo, não participar de programas de fidelidade, não usar assistentes de voz, não postar em redes sociais. Essa recusa ascética é impraticável em larga escala – a vida contemporânea exige interação com plataformas – mas pode ser cultivada como zona de exceção: espaços deliberadamente análogos, reuniões presenciais sem celulares, comunidades que mantêm protocolos de comunicação não digitais. O capital odeia o vazio de dados; a recusa é uma forma de deserto político.

8.3 Para além da crítica – a construção de uma inteligência coletiva

Todas as contracondutas acima são defensivas. Elas atrapalham, corroem, desviam – mas não constroem um novo modo de produção. A tarefa positiva da crítica marxista é a socialização dos meios de predição: transformar a IA de uma tecnologia de controle e extração em uma tecnologia de planejamento democrático e autogestão.

Isso soa utópico. Mas considere: a IA é, em sua essência, uma técnica de inferência a partir de padrões passados. No capitalismo, essa inferência serve para antecipar comportamentos de consumo e maximizar lucros. Em uma sociedade socialista, a mesma técnica poderia servir para antecipar necessidades coletivas: quanto pão será necessário amanhã em uma determinada região? Como otimizar rotas de transporte público para reduzir emissões e tempo de viagem? Quais áreas da cidade carecem de escolas, hospitais, parques? A IA não tem política inata; ela é uma ferramenta que pode ser usada para objetivos opostos. A diferença não está no algoritmo, mas no regime de propriedade e controle.

A proposta aqui não é um “socialismo de plataforma” em que o Estado gerencia a economia via algoritmos centrais – isso seria um pesadelo burocrático e potencialmente totalitário. Trata-se, antes, de uma federação de inteligências coletivas, em que cooperativas, conselhos de bairro, sindicatos, comunidades indígenas e outros corpos intermediários desenvolvem seus próprios modelos de IA em datasets locais, e os compartilham horizontalmente, sem mediação de um centro. O blockchain, despido de seu fetichismo especulativo, oferece uma pista técnica para esse compartilhamento confiável e descentralizado. Mas a condição política é mais importante que a técnica: a decisão sobre o que será previsto, com quais dados, e com quais consequências, deve ser tomada democraticamente por aqueles afetados pelas decisões.

Isso nos leva a uma reformulação do ideal iluminista de “esfera pública”: não mais um debate entre cidadãos racionais desencarnados, mas um ambiente deliberativo assistido por IAs transparentes que fornecem informações, projetam cenários, testam hipóteses – sem nunca substituir a decisão final humana. A IA seria, nesse quadro, uma “prótese cognitiva coletiva”, não um tutor ou um mestre. As ferramentas já existem – modelos de linguagem open-source, bibliotecas de aprendizado de máquina acessíveis. O que falta é a vontade política e a infraestrutura institucional.

8.4 Conclusão – o espectro do comum

Dois fantasmas assombram o capitalismo do século XXI. Um, que ele mesmo conjurou – o espectro da automação total, do trabalho abolido, do lazer forçado que se torna tédio, da superabundância que não pode ser distribuída porque destruiu a própria ideia de distribuição. Outro, que ele tenta exorcizar sem sucesso – o espectro do comum, da reapropriação, da tecnologia posta a serviço da vida e não da valorização do valor.

Este ensaio tentou mostrar que o primeiro fantasma é uma ilusão perigosa: a automação total é impossível no capitalismo porque o capital não pode sobreviver sem trabalho vivo; o que ele chamará de “automação” será sempre, na verdade, a precarização extrema do trabalho remanescente e a ocultação sistêmica do trabalho invisível. O que parece um futuro pós-trabalho é, na realidade, a forma mais brutal do trabalho – aquele que não é reconhecido como trabalho, não é contado, não é remunerado, não é sindicalizável. A IA não nos liberta; ela nos reconfigura como engrenagens de uma máquina cognitiva planetária cujos fins nos escapam.

A saída não é a destruição das IAs – isso seria um ludismo de novo tipo, tão ingênuo quanto o original. A saída é a guerra de posição pela infraestrutura algorítmica: ocupar as fábricas de chips? Não. Mas ocupar os datasets, sim. Abrir o código, sim. Democratizar o acesso ao treinamento, sim. Criar sindicatos de dados, sim. Recusar a validação de modelos opacos, sim. Fazer da transparência algorítmica uma exigência de classe, sim. E, acima de tudo, construir, aqui e agora, as pequenas ilhas de inteligência coletiva para além do valor.

Tais ilhas existem. São frágeis, são marginais, são frequentemente ignoradas pelos profetas da grande transformação. Mas foi em ilhas assim – nos sindicatos proibidos da Polônia comunista, nos conselhos de fábrica de Turim, nas comunidades quilombolas do Brasil – que as sementes do novo germinaram, contra todas as previsões. A crítica marxista das IAs não precisa profetizar o futuro; precisa apenas mostrar que o presente é insustentável, que as contradições são agudas, que as lacunas de conhecimento podem ser preenchidas pela práxis, e que o espectro do comum, uma vez conjurado, não desaparece. Ele ronda. E rondará até que a inteligência que hoje serve ao capital seja devolvida àqueles que a produziram – com suas mãos, seus olhos, suas hesitações, seus cliques, seus sonhos acordados diante de telas que os espionam.

O algoritmo não tem consciência de classe. Mas os trabalhadores que o alimentam – fragmentados, dispersos, invisíveis – podem adquiri-la. Esse é o único fundamento real para a esperança. O resto é ruído estatístico.

Wallace Rocha Armani, Moscou, 23 de abril de 2026.

Deixe um comentário

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.