0
 

Estou observando os fatos políticos das últimas semanas, envolvendo assassinato por desacordo de ideias políticas, guerras digitais ideológicas, sanções econômico-diplomáticas de Donald Trump, insurgência contra as instituições democráticas brasileiras e os movimentos anti-imigração e contra o governo, na Inglaterra e na França. Esta conversa será longa!

Os episódios das últimas semanas são o desenvolvimento de uma jornada política de tensão que recrudesce nos últimos anos, amplificada pelas guerras travadas no mundo digital, onde a máquina ideológica é de moer gente. A obra muito atual de Karl Raimund Popper é apropriada para a leitura da história agora.

A noção de sociedade aberta, desenvolvida por Popper, baseia-se na liberdade individual, no pluralismo e na crítica racional como fundamentos da democracia. Essa concepção pressupõe um espaço público onde ideias possam ser debatidas livremente e submetidas ao crivo da razão. No entanto, em tempos de hiperconectividade, fake news e polarização política crescente, esse ideal entra em crise.

Em meio às sombras da Segunda Guerra Mundial, Popper ergueu sua voz contra os monstros do totalitarismo em A Sociedade Aberta e Seus Inimigos. Popper nasceu em Viena e viveu exilado na Nova Zelândia. O filósofo via o nazismo e o stalinismo como frutos de ideias antigas: o elitismo platônico, que sonhava com reis-filósofos esmagando a liberdade individual; o historicismo hegeliano, com sua dialética inexorável; e o marxismo, prometendo um paraíso proletário a qualquer custo, inclusive o da violência.

Popper contrapõe a isso a sociedade aberta: um mundo de debates acesos, eleições livres e reformas cautelosas, que ele chama de “engenharia de peças”, inspirada na ciência, onde hipóteses são testadas e refutadas sem medo. Não há leis da história gravadas em pedra, diz ele; o futuro é maleável, moldado pela crítica racional e pela tolerância ao erro. Utopias radicais, alertava, só geram novas prisões.

Mais de sete décadas depois, suas palavras ecoam nos embates contra populismos e autoritarismos. Popper nos lembra: a verdadeira força de uma sociedade não está na perfeição prometida, mas na coragem de questionar e mudar, tijolo por tijolo. Em um mundo ainda dividido, a sociedade aberta não é utopia, antes, é o antídoto contra o fechamento do espírito humano.

Hoje, o discurso público está saturado por desinformação sistemática e radicalização ideológica, fenômenos que desafiam os pressupostos básicos da deliberação democrática. A verdade torna-se uma narrativa, e o espaço para o dissenso racional dá lugar à guerra de versões e ao jogo de interesses de grupo que seguram as cordas em um grande teatro de bonecos. Nós? Os títeres do discurso midiático.

A democracia pressupõe uma base mínima de entendimento compartilhado. No entanto, a polarização política contemporânea reconfigura esse pressuposto ao criar universos cognitivos paralelos: as bolhas digitais, nos quais grupos ideológicos não apenas discordam sobre soluções, mas negam a existência de fatos comuns. Nesse jogo de nós contra eles, todos saem derrotados, cantando vitórias de Pirro.

Como aponta Lee McIntyre, na obra Post-Truth, na era da pós-verdade, a adesão emocional e partidária supera a verificação factual. Nesse ambiente, as fake news operam como dispositivos simbólicos: moldam identidades, reforçam crenças, simulam convicções e aprofundam divisões. O pior: acirram paixões irracionais que, em grau máximo, segregam e matam.

Ao contrário do que se possa imaginar, as fake news e as narrativas enviesadas não são apenas disfunções do ecossistema comunicacional. Elas funcionam como instrumentos estratégicos de manipulação política e midiática, especialmente em contextos de polarização.

Segundo Claire Wardle e Hossein Derakhshan, no relatório Information Disorder, a desinformação moderna não busca apenas enganar, mas também desestabilizar o tecido social e corroer a confiança nas instituições democráticas, a fim de demolir as paredes institucionais e instalar uma selva comunicacional.

É o que Popper advertia de paradoxo da tolerância: uma sociedade que tolera o intolerável pode, paradoxalmente, destruir a si mesma. Jürgen Habermas dizia que a esfera pública é um espaço de deliberação racional onde os cidadãos, em condição de igualdade, podem formar opiniões e vontades coletivas. 

No entanto, esse ideal habermasiano assume a existência de interlocutores dispostos ao diálogo racional e comprometidos com normas comunicativas mínimas: pressupostos corroídos pela polarização extrema e pela economia da atenção. Todos estão solidários em suas bolhas, caçando e cancelando os inimigos, que não participam do mesmo universo cognitivo.

A lógica algorítmica das redes sociais transforma a política em performance. Como demonstram Cass R. Sunstein, em Republic: Divided Democracy in the Age of Social Media e Eli Pariser, em The Filter Bubble, a personalização de conteúdo gera filter bubbles e reforça o viés de confirmação, impedindo o encontro com o contraditório. É assim que funcionam as bolhas digitais, reforçando ignorância compartilhada e convicções manipuladas. Você recebe do algoritmo só o que confirma suas convicções, formando seu viés cognitivo.

Plataformas digitais tornaram-se os novos centros de debate público, mas sem os mesmos mecanismos de regulação democrática. Shoshana Zuboff afirma, em The Age of Surveillance Capitalism, que vivemos sob o domínio do capitalismo de vigilância, no qual dados pessoais são usados para moldar comportamentos e maximizar engajamento, não para garantir pluralismo ou racionalidade. Os algoritmos funcionam assim: são as cordas dos titereiros, as big techs. E nós, os bonecos. Porém, somos instigados a pensar que somos livres, informados e iguais, sob o jugo de gurus digitais, que funcionam como messias de um tempo de promessas não cumpridas.

A moderação de conteúdo, ao mesmo tempo que busca conter a desinformação, levanta acusações de censura política, reforçando narrativas conspiratórias e alimentando ressentimentos entre grupos polarizados.

Não basta combater a desinformação com tecnologia; é preciso reconstruir o tecido democrático do discurso. Isso envolve educação crítica, como defende David Buckingham em Media Education: Literacy, Learning and Contemporary Culture, para formar leitores críticos da informação digital; regulação democrática das plataformas, com transparência algorítmica e critérios públicos de moderação e políticas de inclusão comunicativa, para que o discurso público reflita a diversidade real da sociedade.

A sociedade aberta, tal como idealizada por Popper, é, do mesmo modo que a democracia, uma conquista frágil. Em tempos de fake news e polarização política, o discurso público deixa de ser espaço de construção democrática para se tornar arena de destruição simbólica do outro, sempre com o epicentro no discurso no divisionismo.

A defesa da liberdade de expressão não pode ser confundida com a aceitação acrítica de mentiras organizadas. Hannah Arendt dizia que a verdade factual é o solo sobre o qual a política democrática se ergue. Sem ela, o diálogo degenera em propaganda, e a sociedade aberta, em ilusão.

A regulação das plataformas digitais, especialmente as chamadas “big techs”: Meta (Facebook e Instagram), Google, X (antigo Twitter) e TikTok, tem se tornado um tema central no debate sobre a preservação da sociedade aberta em contextos de desinformação e polarização, eis que os senhores feudais do território imenso da internet se opõem à regulação do ambiente digital, a fim de ditarem livremente as leis e a amônia nesse espaço.

A União Europeia tem liderado o caminho com o Digital Services Act (DSA), aprovado em 2022 e plenamente em vigor desde fevereiro de 2024, com obrigações adicionais implementadas ao longo de 2025. O DSA estabelece um marco regulatório abrangente para plataformas digitais, visando prevenir atividades ilegais, combater a desinformação e promover transparência, sem impor censura direta.

O DSA regula intermediários online, como redes sociais, marketplaces e motores de busca, com obrigações escalonadas com base no tamanho da plataforma: para “very large online platforms” (VLOPs) e “very large online search engines” (VLSEs) — aquelas com mais de 45 milhões de usuários mensais na UE —, há regras mais rigorosas, incluindo a mitigação de riscos sistêmicos como polarização e fake news.

Em 2025, a implementação do DSA avançou significativamente. Em fevereiro, a Comissão Europeia lançou um “Election Toolkit” para orientar reguladores nacionais (Digital Services Coordinators) na aplicação das diretrizes eleitorais, baseado em experiências com o Code of Practice on Disinformation e diálogos com plataformas desde 2023. Isso inclui medidas para combater a manipulação de eleições, como transparência em anúncios políticos e remoção de conteúdo ilegal (ex.: discurso de ódio ou desinformação coordenada). 

Em julho de 2025, a Comissão disponibilizou um “age-verification blueprint” para proteger menores, alinhando-se a preocupações com exploração infantil nas plataformas. Além disso, em julho, a Comissão iniciou investigações preliminares contra plataformas como Temu por violações relacionadas a produtos ilegais, demonstrando a aplicação prática do DSA.

As sanções são severas: multas de até 6% do faturamento global anual, o que para gigantes como Google ou Meta pode significar bilhões de euros. O DSA também exige transparência algorítmica (ex.: relatórios sobre como algoritmos recomendam conteúdo), sistemas de reclamação interna para usuários e cooperação com autoridades nacionais.

 Críticos, como Jessica Stegrud (parlamentar sueca), argumentam que o foco em “conteúdo prejudicial” pode minar a liberdade de expressão, mas defensores destacam que o DSA não define o que é “ilegal”. Isso cabe a leis nacionais, promovendo em vez disso accountability sem controle estatal direto. Em 2025, o DSA influenciou debates globais, com potencial “efeito Bruxelas”, onde plataformas adotam padrões europeus mundialmente para economizar custos, embora especialistas como Martin Husovec (LSE) notem que a adoção voluntária fora da UE é modesta para obrigações chave de moderação de conteúdo

.

No contexto de fake news e polarização, o DSA aborda diretamente o “capitalismo de vigilância” criticado por Zuboff (2019), exigindo que plataformas avaliem e mitiguem riscos como a amplificação de conteúdo divisivo. Um exemplo é a investigação contra o X, em julho de 2025, questionando sua implementação no combate a palavras de ódio, na Irlanda, e destacando tensões na aplicação transfronteiriça.

No Brasil, a regulação das plataformas é marcada por intensos embates políticos e econômicos, refletindo a polarização extrema. O Projeto de Lei 2630/2020, conhecido como PL das Fake News, aprovado no Senado em 2022, propõe um regime de transparência e responsabilidade para plataformas com mais de 10 milhões de usuários (abrangendo as big techs). Ele exige relatórios anuais sobre moderação de conteúdo, transparência em algoritmos, remoção de desinformação coordenada (sem definir “fake news” para evitar censura) e criação de um órgão fiscalizador independente, inicialmente o Comitê Gestor da Internet (CGI.br). O PL também aborda proteção a menores, direito de resposta e proibição de impulsionamento de conteúdo prejudicial, alinhando-se a preocupações com polarização, como visto nas eleições de 2018 e 2022, onde fake news influenciaram resultados via WhatsApp e redes sociais.

Em junho de 2024, o presidente da Câmara, Arthur Lira (PP-AL), arquivou o PL, alegando contaminação por narrativas de “censura” propagadas pela extrema-direita, bancada evangélica e lobistas das big techs. Em 2025, o debate se fragmentou: o governo Lula tentou retomar a pauta em abril, com o Secretário de Políticas Digitais, João Brant, defendendo a regulação para mitigar riscos sistêmicos, como fraudes digitais e proteção infantil, sem foco exclusivo em fake news, para evitar resistência.

Uma pesquisa da AtlasIntel em agosto de 2025 mostrou que 55% dos brasileiros apoiam regular redes sociais, vendo fake news como ameaça à democracia, mas o apoio caiu em relação a 2024, com 43% temendo censura. 80% apoiam verificação de identidade para combater contas falsas, e 64% querem remoção obrigatória de fake news por agências de checagem.

As big techs exerceram forte lobby contra o PL 2630. Uma investigação da Agência Pública em setembro de 2025 revelou que Meta e Google realizaram pelo menos 18 visitas à liderança do PL na Câmara entre 2022 e 2025, aliando-se à extrema-direita para barrar a regulação:  uma tática similar à usada nos EUA com Trump. Em abril de 2025, Bolsonaro se reuniu com executivos do Facebook em Brasília para discutir o PL, expondo estratégias de lobby que priorizam interesses corporativos sobre democracia.

Relatórios indicam que plataformas gastaram bilhões em publicidade governamental (R$ 23 bi em 10 anos) e usaram algoritmos para amplificar conteúdos contra o PL, como alegações de censura. Em resposta, em maio de 2025, o governo priorizou proteção infantil em uma nova proposta, excluindo fake news explicitamente, com foco em proibição de acesso a redes para menores de 12 anos, escritório local obrigatório e protocolos para emergências (ex.: pandemias). A ANPD (Autoridade Nacional de Proteção de Dados) seria elevada a agência reguladora, com multas por descumprimento sistêmico e bloqueio de plataformas apenas como último recurso, sem ordem judicial inicial.

Projetos alternativos, como o PL 4691/2022, propõem submeter o CGI.br à Anatel, criticada por negligência e captura regulatória, o que enfraqueceria a defesa de direitos digitais. Em fevereiro de 2025, uma audiência da AGU discutiu moderação de conteúdo, com a Coalizão Direitos na Rede defendendo o PL 2630 como base, e mais de 200 organizações assinando uma carta contra retrocessos na moderação da Meta. No STF, decisões de junho de 2025 alteraram o Marco Civil da Internet para responsabilizar plataformas por omissão em conteúdos ilegais, influenciando novas propostas.

A regulação enfrenta dilemas: de um lado, o risco de censura, como alegado pela direita (ex.: PL 2630 como “ameaça à liberdade”); do outro, a impunidade das big techs, que lucram com polarização (conteúdos divisivos geram 5x mais engajamento, segundo o Oxford 2021). No Brasil, o lobby das techs, não regulado, cria assimetrias, com plataformas usando dados para manipular eleições (ex.: Brexit custou US$ 178 bi ao UK). Globalmente, o DSA é elogiado por promover devido processo informacional (recursos contra moderações), mas questionado por ambiguidades em enforcement, como no caso X/Irlanda.

Pesquisas mostram que 48% dos brasileiros veem disseminação de fake news como maior preocupação na regulação, contra 37% temendo censura. Em uma leitura de Habermas, isto poderia corroer normas comunicativas; lendo Arendt, sem verdade factual, a democracia vira propaganda enganosa.

Para uma regulação eficaz, inspirada no DSA e adaptada ao Brasil, precisamos de transparência e Accountability: exigir relatórios públicos sobre algoritmos e moderação, como no PL 2630 e DSA. No Brasil, precisamos transformar a ANPD em reguladora plena, com sanções progressivas (advertências a multas de 6% do faturamento). Além disto, promover: proteção específica a vulneráveis e proibir acesso infantil abaixo de 12 anos e impulsionamento de conteúdo prejudicial, com age-verification (como o blueprint DSA de julho 2025).

Precisamos incluir protocolos para eleições e emergência, combate ao lobby e inclusão. Precisamos frear o lobby de big techs e envolver a sociedade civil (ex.: CGI.br como fiscalizador independente). É preciso apoiar iniciativas como o Election Toolkit do DAS, para mitigar desinformação eleitoral e integração Regional: aprender com UE, mas adaptar à polarização brasileira, evitando fusão com regulação de IA (como alertado em maio 2025). Ainda, mobilizar petições e debates, para pressionar o Congresso.

A regulação das plataformas não é censura, mas defesa da sociedade aberta popperiana contra o paradoxo da tolerância e contra o colapso do tecido social e político, sob controle das big techs.

No Brasil de 2025, com o PL 2630 engavetado, os debates seguem vivos e o avanço depende de superar lobbies e polarização para um equilíbrio que restaure o diálogo racional. Sem isso, fake news e divisões continuarão ameaçando a pluralidade da democracia, como visto em eleições passadas. 2026 está chegando. Teremos eleições presidenciais. Até lá, o ambiente digital e a IA deverão ser tomados pela guerra dos algoritmos, do discurso das narrativas de bolhas digitais e das fake News. A conferir.

Eu sou shiva

Anterior

PEC da Blindagem ameaça segurança

Próximo

Você pode gostar

Comentários