0
 

Como mercados, dados, discurso, trabalho e segurança foram capturados por infraestruturas privadas — e por que a geopolítica da IA decide o século



Há um tipo de poder que não precisa levantar a voz para ser obedecido. Ele não chega com a solenidade dos decretos, nem com a violência explícita das botas, tampouco com o ritual austero dos parlamentos. Ele se manifesta como conveniência, como atalho, como uma sutil “melhoria de experiência”. Surge em uma caixa de diálogo que se fecha com um clique e, ao se encerrar, transmuta um dilema ético em rotina automatizada. É a recomendação que floresce antes mesmo de o desejo se assumir consciente; o mapa que sugere o caminho “mais rápido” e, ao fazê-lo, converte a escolha em hábito mecânico. Quando o costume se instala, a tecnologia deixa de ser mera ferramenta para se tornar ambiente. É nesse cenário que as Big Techs, corporações que por décadas preferimos imaginar como simples prestadoras de serviços, passam a atuar como infraestruturas sociais profundas, dotadas de uma perturbadora capacidade de governar.


O que denominamos Big Tech não é apenas um aglomerado de marcas famosas ou um punhado de bilionários carismáticos. Trata-se de uma constelação vasta de plataformas, sistemas operacionais, lojas de aplicativos, redes sociais, motores de busca e nuvens corporativas, agora coroadas por modelos de inteligência artificial. É a camada invisível que medeia o mercado e a conversa, a compra e a crença, o trabalho e o lazer — o filtro pelo qual enxergamos ou ignoramos o mundo. Por isso, discutir o “abuso de poder” nesse domínio exige um refinamento da linguagem. Não lidamos apenas com empresas ricas, mas com atores que controlam os pontos de passagem por onde a vida circula. O diagnóstico de Nick Srnicek em Capitalismo de Plataforma ajuda a enquadrar esse fenômeno ao tratar tais estruturas como a forma empresarial central do capitalismo contemporâneo, erguida sobre a tríade de: dados, intermediação e efeitos de rede.


Esses efeitos de rede, aliás, são expressões técnicas que parecem neutras até que se compreenda sua essência política. Quanto mais usuários aderem a uma plataforma, mais útil ela se torna, atraindo novos integrantes em um círculo que gera escala, centralidade e, por fim, dependência. O estudo de Srnicek demonstra como essa dinâmica não é um detalhe fortuito, mas a própria engenharia econômica que impulsiona a concentração. No mundo digital, essa centralização possui uma particularidade: não é apenas acúmulo de capital, mas de infraestrutura social. Quando uma empresa domina o ambiente onde bilhões se relacionam e se informam, ela deixa de apenas competir no mercado para desenhar o próprio mercado, estabelecendo seus limites, custos de entrada e regras de permanência.


É por essa razão que o poder das gigantes tecnológicas raramente se manifesta por meio de proibições diretas; ele prefere a configuração do possível. A plataforma dificilmente diz “não”, optando pelo “sim, mas…”. Sim, mas mediante uma taxa; sim, sob uma condição específica; sim, desde que em um formato determinado ou sob uma política de visibilidade mutável. Esse “sim, mas” é o idioma do poder contemporâneo: um comando disfarçado de ecossistema. Em diversos setores, o que chamamos de mercado tornou-se um conjunto de domínios fechados ou semicerrados, onde a concorrência se curva a regras impostas por um intermediário dominante. A análise de Frank Pasquale em A Sociedade da Caixa Preta: Os algoritmos secretos que controlam o dinheiro e a informação é preciosa nesse ponto, pois descreve como a força algorítmica e a opacidade corporativa se tornam formas de governança, nas quais as decisões são tomadas de modo que raramente possam ser questionadas.


No campo do mercado, o abuso de poder floresce no controle de acesso e na cobrança sistemática de pedágios. Manifesta-se em comissões sobre distribuição, vendas e publicidade, além do domínio sobre lojas de aplicativos e custos de publicação. Surge na possibilidade de alterações unilaterais em APIs, capazes de converter um negócio próspero em uma ruína financeira da noite para o dia. Manifesta-se, ainda, na promoção de serviços próprios com vantagem estrutural, seja por integração nativa ou posicionamento privilegiado em rankings. A linguagem desse abuso é, frequentemente, a da normalidade empresarial, mas seu efeito é puramente político: o poder de definir quem entra, quem permanece e quem desaparece no horizonte econômico.


Essa dinâmica se intensifica quando compreendemos que as plataformas não são apenas intermediárias, mas árbitras supremas da visibilidade. Na economia digital, ser visto é uma condição de existência econômica. Para criadores, mídias e pequenas organizações, uma oscilação algorítmica pode representar a fronteira entre a sobrevivência e a extinção. O risco aqui excede a instabilidade do mercado; trata-se da transformação da livre concorrência em uma concessão precária. É a sensação, cada vez mais onipresente, de que a sociedade trabalha em um terreno alugado, onde o senhorio pode elevar o aluguel sem qualquer margem para negociação.


A tese formulada por Yanis Varoufakis em Tecnofeudalismo: O que matou o capitalismo torna-se atraente justamente por nomear essa experiência. O autor propõe que as Big Techs atuam como “senhores feudais digitais”, extraindo o que ele denomina “renda da nuvem” — um ganho que deriva não da produção eficiente, mas do controle estrito do território e do acesso. Embora o termo “feudalismo” possa ser debatido, a metáfora captura a realidade do pedágio digital como uma estrutura permanente. Nessa perspectiva, o ecossistema deixa de ser um arranjo técnico para se tornar um regime de dependência, onde a submissão generalizada se transmuta em forma de governo.


Se no mercado as plataformas operam como portos e pedágios, na esfera dos dados elas funcionam como observatórios vastos, que frequentemente conhecem a população melhor do que as próprias instituições públicas. Aqui, o abuso ganha uma textura íntima, invadindo a matéria-prima do cotidiano. Shoshana Zuboff, em A Era do Capitalismo de Vigilância: A luta por um futuro humano na nova fronteira do poder, descreve esse regime como um sistema em que a experiência humana é convertida em dados comportamentais destinados a previsões e intervenções. O que está em jogo não é apenas a privacidade como um segredo individual, mas a autonomia como a capacidade de não ser governado por inferências invisíveis.


A coleta de informações, por si só, já é um tema sensível, mas o ponto mais sofisticado e perigoso reside na inferência. Mesmo no silêncio do que não declaramos, nossos padrões de comportamento nos traem. A rotina revela a classe social; a localização expõe vulnerabilidades; as interações mapeiam redes de influência. Quando esse conhecimento se torna operacional, ele decide o anúncio que veremos, o preço que pagaremos e o risco que representaremos para créditos ou seguros. O tratado de Zuboff insiste que o poder nesse campo é assimétrico: a plataforma observa enquanto o usuário é observado; ela prevê enquanto ele ignora a previsão. Essa assimetria informacional cria uma vantagem competitiva que permite a modulação social em larga escala.


Nesse ponto, a crítica de Kate Crawford em Atlas da IA: Poder, política e os custos planetários da inteligência artificial acrescenta uma dimensão física crucial: os sistemas de dados não são etéreos. Eles possuem uma materialidade voraz, exigindo energia, chips, mineração e cadeias de trabalho invisível. A obra de Crawford demonstra que, por trás do discurso de “inteligência”, reside uma extração planetária e um conjunto de relações laborais que sustentam a infraestrutura. Isso desloca o debate de uma moralidade abstrata para uma economia política concreta, lembrando-nos de que o poder do dado é, também, o poder de sustentar a máquina que o processa — uma máquina com donos, custos e fronteiras bem definidos.


Se mercado e dados são faces da soberania privada, o discurso é a praça pública onde essa soberania se torna visível sob disfarce. A esfera pública contemporânea está sitiada em plataformas que administram o alcance e as normas do que pode ser dito. O abuso aqui não reside apenas na remoção, mas na amplificação seletiva. Em sua análise sobre a sociedade da caixa preta, Pasquale discute como a opacidade algorítmica impede a compreensão de por que certos conteúdos ascendem enquanto outros são silenciados. Essa falta de transparência é política, pois controla a atenção e, consequentemente, o que a sociedade reconhece como comum.


Em ambientes orientados pelo engajamento, a indignação torna-se o combustível principal. O conflito é transformado em métrica e a polarização em produto lucrativo. Não é necessário que haja uma intenção deliberada de polarizar; basta que a arquitetura premie o tempo de tela e a reação emocional. A plataforma distorce a realidade por meio de incentivos, criando uma moderação privatizada que carece de equivalentes democráticos. Quando um criador perde alcance ou é desmonetizado, a justificativa costuma ser genérica e o recurso, assimétrico. Mesmo quando a moderação é necessária, a ausência de um devido processo consolida um regime de “lei privada” sobre a palavra pública.


O trabalho, por sua vez, é o território onde a abstração se torna carne. A gestão algorítmica cria o paradoxo da autonomia formal sob controle material estrito. Michel Foucault, em Vigiar e Punir: nascimento da prisão, oferece a gramática para entender como o poder opera por meio da vigilância e da norma. Nas plataformas, essa disciplina se transmuta em telemetria: cada clique vira dado e cada dado vira um julgamento sem rosto. A escala mudou, mas a essência da observação punitiva permanece, agora diluída em códigos e interfaces que monitoram a produtividade em tempo real.


Cathy O’Neil, em Algoritmos de Destruição em Massa: Como o Big Data aumenta a desigualdade e ameaça a democracia, descreve como modelos matemáticos podem automatizar injustiças sob o manto da neutralidade. No mundo laboral, isso se traduz em pontuações opacas que definem o acesso a tarefas e bloqueios automatizados que ignoram o diálogo. O livro de O’Neil explica que o trabalhador não mais negocia com um gestor, mas com uma interface que calcula e decide friamente. A injustiça deixa de ser uma falha humana para se tornar uma consequência estatística inquestionável do modelo adotado.


Gilles Deleuze, em Conversações: 1972–1990, auxilia na nomeação dessa transição para as sociedades de controle, onde o poder é uma modulação contínua. Não se trata apenas de punição, mas de um sistema de acessos concedidos ou retirados e reputações ajustadas instantaneamente. Esse modelo é perfeitamente compatível com as plataformas, que atuam simultaneamente como ambiente e medidor. Elas não apenas hospedam a ação humana; elas a quantificam e, ao fazê-lo, passam a governá-la de forma absoluta, transformando a vida social em uma sucessão de permissões e bloqueios.


Quando abordamos o tema da segurança, a soberania do invisível colide diretamente com o Estado e a geopolítica. A infraestrutura digital tornou-se o sistema nervoso das nações, com governos e hospitais dependendo de nuvens controladas por poucos provedores globais. Essa concentração cria uma vulnerabilidade sistêmica onde falhas técnicas geram efeitos cascata devastadores. Além disso, surge uma zona de tensão ética: a vigilância comercial é facilmente convertível em monitoramento político. A fronteira entre a proteção pública e o controle social torna-se tênue, especialmente em tempos de instabilidade informacional, onde a desinformação é usada como arma militar.


É nesse ponto que a Inteligência Artificial altera o regime do poder de modo definitivo. Ela não é apenas “mais uma tecnologia”, mas uma camada que reorganiza o mercado, o discurso e a segurança. A IA reduz drasticamente o custo de produzir linguagem e persuasão, ao mesmo tempo em que aprofunda a opacidade dos sistemas. No campo do discurso, a vertente generativa industrializa a desinformação, permitindo que campanhas de manipulação sejam personalizadas em escala inédita. A ameaça aqui é a corrosão da confiança pública por meio de conteúdos sintéticos que mimetizam a realidade com perfeição assustadora.


No mercado, a inteligência artificial tende a reforçar a concentração infraestrutural. Modelos de fronteira exigem um volume de capital e dados que poucos possuem. O resultado é que a inteligência se torna um serviço alugado — um pedágio de cognição. É um passo além na direção do que Varoufakis descreve em sua obra sobre o tecnofeudalismo como a captura de valor pelo controle da passagem central da inteligência. Se a nuvem era o território, a IA é o intelecto desse novo feudo, onde a soberania econômica é exercida por meio de APIs e modelos proprietários.


No domínio dos dados, a IA amplia a capacidade de dedução a níveis sem precedentes. Mesmo sem coleta direta, os modelos podem desvendar o íntimo. A questão ética, portanto, desloca-se para o uso dessas deduções em decisões automáticas sobre emprego ou segurança. A crítica de Pasquale sobre as caixas-pretas ganha uma urgência renovada, pois se o modelo influencia o destino do cidadão, o direito à contestação torna-se um fundamento democrático inegociável. Sem transparência, o julgamento algorítmico assemelha-se a uma sentença sem juiz e sem defesa.


Esse quadro complexo é atravessado por disputas ideológicas profundas. O tecno-otimismo de Marc Andreessen, em O Manifesto Tecno-Otimista, defende a aceleração como uma virtude moral absoluta. Embora a tecnologia tenha aliviado sofrimentos históricos, há um ponto cego nessa narrativa: acelerar em um terreno já concentrado favorece apenas os detentores da infraestrutura. A aceleração, sem os devidos freios, pode se tornar uma justificativa para consolidar o poder sem qualquer prestação de contas à sociedade, transformando o progresso em um monólogo corporativo.


Em outro extremo, Curtis Yarvin, no texto Chapter 1: a positive vision, propõe a substituição da democracia por governanças corporativas hierárquicas. Para ele, a eficiência empresarial deveria ser o norte do Estado, tratando o pluralismo democrático como uma ineficiência a ser corrigida. Essa visão revela o perigo de propostas antidemocráticas vestidas de pragmatismo técnico. Contudo, a eficiência não substitui a legitimidade, e o dissenso democrático não é um erro de código, mas a própria condição da liberdade humana em uma sociedade plural.


No polo oposto, John Zerzan, em Futuro Primitivo, oferece uma recusa radical da tecnologia moderna, enxergando nela a raiz da alienação. Embora a maioria das sociedades não siga o caminho do retrocesso técnico, sua crítica é vital para impedir a naturalização do sistema. Zerzan nos lembra que a tecnologia embute formas de vida e que essas formas podem ser inerentemente dominadoras. Entre a aceleração cega e a recusa total, a tarefa urgente é construir instituições que domestiquem o poder tecnológico sem asfixiar a inovação necessária.


A dimensão geopolítica revela que a IA é o novo campo de batalha pela hegemonia global. Nos Estados Unidos, a inovação privada funde-se à segurança nacional em uma projeção de poder por infraestrutura. Na China, o Estado orienta a tecnologia para a estabilidade social e o controle granular. A União Europeia tenta estabelecer um poder normativo baseado em direitos, mas lida com a dependência de chips e modelos externos. No Sul Global, o desafio é evitar o colonialismo de dados, construindo uma soberania seletiva que proteja setores críticos sem abdicar do progresso técnico.


Ao final, o que emerge não é uma condenação da tecnologia como tal, mas uma descrição de uma mutação histórica que exige maturidade política. Big Techs e IA são, simultaneamente, motores de produtividade e arquiteturas de poder. O risco maior não é apenas a falha técnica, nem apenas o abuso individual. É a normalização. É aceitar que termos de uso substituam direitos, que métricas substituam justiça, que respostas fluentes substituam debate, que scores substituam biografias, que pedágios privados substituam mercados contestáveis, que infraestrutura concentrada substitua soberania. É transformar conveniência em destino.


Se existe uma tarefa comum a democracias e sociedades que ainda desejam se governar, ela é uma política do visível. Fazer com que o poder que opera por interface deixe de ser invisível. Fazer com que a governança algorítmica tenha contestação. Fazer com que a renda da nuvem não seja o destino inevitável de economias inteiras. Fazer com que a IA, ao invés de amplificar assimetrias, seja submetida a limites e responsabilidades proporcionais ao seu alcance. Porque quando a nuvem aprende a mandar, não é apenas a tecnologia que muda: é a cidadania. E cidadania, para não virar assinatura, precisa reaprender a dizer não ao abuso e sim ao difícil — instituições, transparência, auditoria, pluralismo e tempo. O tempo humano que a eficiência tenta cortar, mas que a democracia precisa para existir.

Referências
ANDREESSEN, Marc. The Techno-Optimist Manifesto, 2023.
CRAWFORD, Kate. Atlas da IA: poder, política e os custos planetários da inteligência artificial. São Paulo: Editora Unesp, 2024.
DELEUZE, Gilles. Conversações: 1972-1990. 3. ed. Rio de Janeiro: Editora 34, 2017.
FOUCAULT, Michel. Vigiar e punir: nascimento da prisão. 42. ed. Petrópolis, RJ: Vozes, 2014.
O’NEIL, Cathy. Algoritmos de destruição em massa: como o big data aumenta a desigualdade e ameaça a democracia. Santo André, SP: Editora Rua do Sabão, 2020.
PASQUALE, Frank. A sociedade da caixa preta: os algoritmos secretos que controlam o dinheiro e a informação. Belo Horizonte: Autêntica, 2024.
SRNICEK, Nick. Capitalismo de plataforma. São Paulo: Boitempo, 2018.
VAROUFAKIS, Yanis. Tecnofeudalismo: o que matou o capitalismo. São Paulo: Planeta, 2024.
YARVIN, Curtis. Chapter 1: a positive vision. Unqualified Reservations, 13 nov. 2008.
ZERZAN, John. Futuro Primitivo. Porto: Deriva Editores, 2007.
ZUBOFF, Shoshana. A era do capitalismo de vigilância: a luta por um futuro humano na nova fronteira do poder. Rio de Janeiro: Intrínseca, 2021.



* O conteúdo do artigo reflete a opinião pessoal da/o colunista

João Francisco Lobato
João Francisco de Oliveira Lobato é engenheiro civil (UFPA) e administrador de empresas (Mackenzie), MBA-E (FEA-USP), mestre em Sustentabilidade (FGV), doutorando em Sustentabilidade (Unifesp). Tem experiência profissional como executivo, conselheiro e consultor junto ao setor privado nas áreas de: Estratégia, ESG - Sustentabilidade, Planejamento Empresarial, Governança e Ética, Inovação, P&D e Gestão de Conhecimento. Junto à área pública e sociedade civil: Inovação Social, Redes e Democracia, Empreendedorismo Social, Ecologia e Inclusão Produtiva. Foi executivo e C-level por 16 anos no grupo Coimbra Lobato, gestor do programa Cidadão do Presente (Governo SP), superintendente da Fundação Stickel e diretor no Instituto Jatobas. É membro de: Uma Concertação pela Amazonia, Observatório do Clima e Pacto pela Democracia, diretor de Sustentabilidade do Instituto Physis e VP do Instituto JUS. Atualmente, sócio-diretor da JFOL Capacitação e Treinamento, consultor sênior da FIA - Fundação Instituto de Administração e diretor de Sustentabilidade da QCP Consultoria e Projetos.

    Bioeconomia da Amazônia em pauta na Unama

    Anterior

    Quando os faróis se apagam…

    Próximo

    Você pode gostar

    Comentários