Liberdade de expressão, Desinformação E DEMOCRACIA na Era DIGITAL

Freedom of expression, disinformation and democracy in the digital age

 

André Gustavo Corrêa de Andrade *   

 

Resumo: A desinformação tornou-se uma das principais ameaças à vida democrática e à própria ideia de verdade factual. Este artigo examina o fenômeno sob uma perspectiva teórico-bibliográfica, discutindo seus fundamentos cognitivos, sociais e tecnológicos. Analisa-se a distinção entre misinformation, disinformation e mal-information, bem como a multiplicidade de formas que a falsidade informativa assume no ambiente digital. Em seguida, são abordados os fatores psicológicos que explicam a credulidade humana, como os vieses cognitivos e as dinâmicas das câmaras de eco e das bolhas de filtro. O texto também investiga a relação entre a mentira política e a corrosão democrática, destacando o papel dos algoritmos e dos modelos de negócios das plataformas digitais na amplificação da desinformação. Por fim, discutem-se o desafio da regulação das plataformas, a responsabilidade das empresas de tecnologia e o equilíbrio necessário entre a liberdade de expressão e a proteção contra abusos informacionais.

 

Palavras-chave: liberdade de expressão; desinformação; democracia; fake news; plataformas digitais; regulação.

 

Abstract: Disinformation has become one of the main threats to democratic life and to the very notion of factual truth. This article examines the phenomenon from a theoretical and bibliographical perspective, discussing its cognitive, social, and technological foundations. It analyses the distinction between misinformation, disinformation, and mal-information, as well as the multiple forms that false or misleading information takes in the digital environment. The study examines the psychological factors that contribute to human credulity, including cognitive biases and the dynamics of echo chambers and filter bubbles. It further investigates the relationship between political lies and democratic erosion, emphasizing the role of algorithms and digital platforms’ business models in amplifying disinformation. Finally, it discusses the challenge of regulating digital platforms, the responsibility of technology companies, and the need to reconcile freedom of expression with protection against informational abuses.

 

Keywords: freedom of expression; disinformation; democracy; fake news; digital platforms; regulation.

 

INTRODUÇÃO

 

A circulação de informações falsas e manipuladas tornou-se um dos fenômenos mais preocupantes da vida pública contemporânea. A desinformação em massa, amplificada pela arquitetura das plataformas digitais e pela lógica de atenção que orienta seu funcionamento, compromete a qualidade do debate público e afeta diretamente a confiança nas instituições democráticas. O problema possui relevância jurídica evidente, pois envolve comunicações que produzem ou podem produzir danos concretos a terceiros, à coletividade ou ao funcionamento de instituições essenciais ao regime democrático. O foco, portanto, não recai em manifestações meramente inadequadas ou moralmente questionáveis, mas sim naquelas que, por sua natureza e alcance, ultrapassam o limite da proteção constitucional da expressão e ingressam no campo dos ilícitos.

Coloca-se, assim, a seguinte questão central: como enfrentar a desinformação em larga escala sem comprometer a liberdade de expressão nem fragilizar a própria democracia que se pretende proteger? Parte-se da hipótese de que respostas eficazes ao problema exigem uma abordagem integrada que considere os fatores cognitivos que tornam indivíduos e grupos vulneráveis à falsidade, o papel estrutural das plataformas digitais na amplificação desses conteúdos e a necessidade de parâmetros normativos que permitam responsabilizar agentes privados e públicos quando provocam danos informacionais relevantes, sem recair em práticas censórias ou restrições indevidas à circulação de ideias.

O objetivo geral deste artigo é examinar a desinformação como fenômeno informacional, cognitivo e político, a fim de identificar critérios que orientem modelos legítimos de regulação das plataformas digitais compatíveis com a liberdade de expressão. O estudo se desenvolve em torno de três eixos: delimitação conceitual da desinformação; análise dos mecanismos cognitivos e sociais que favorecem sua aceitação; e avaliação de possíveis respostas institucionais e regulatórias.

A pesquisa adota uma abordagem teórico-bibliográfica, com foco na literatura jurídica, filosófica, psicológica e comunicacional dedicada ao tema. Utiliza-se um método predominantemente dedutivo, complementado por raciocínios indutivos quando necessário. A análise busca identificar convergências e tensões nas abordagens existentes e articulá-las à hipótese de que soluções eficazes precisam conciliar responsabilidade, transparência e proteção das liberdades fundamentais.

 

1 FALSIDADE: CONCEITOS E MODALIDADES

 

A falsidade nem sempre constitui um problema para o Direito. A vida social comporta um repertório variado de pequenas inverdades que desempenham funções de convivência, proteção e cortesia. Entre essas formas de inverdade encontram-se as chamadas “mentiras sociais”, empregadas para evitar constrangimentos, preservar a cordialidade e suavizar relações interpessoais; as “mentiras benevolentes ou piedosas”, contadas para poupar sofrimento ou angústia; as “mentiras de incentivo”, usadas para encorajar alguém em situações de fragilidade ou no início de um aprendizado; as “mentiras de privacidade”, que servem para resguardar a intimidade sem intenção de prejudicar terceiros; e as “mentiras de modéstia”, quando alguém subestima deliberadamente suas próprias realizações para não parecer arrogante ou para se integrar melhor a um grupo.

Esses exemplos, que não esgotam as diversas hipóteses de mentiras inofensivas, mostram que a mentira, até certo ponto, integra a dinâmica da vida em sociedade. Como escreveu Anatole France: “Gosto da verdade. Acredito que a humanidade precisa dela; mas precisa ainda muito mais da mentira que a adula, a consola e lhe dá esperanças sem fim. Sem a mentira, a humanidade morreria de desespero e tédio” (France, 1922, p. 76).[1] A falsidade e a dissimulação não apenas fazem parte da vida social, mas, em muitas situações, são necessárias ou até esperadas.

O interesse jurídico surge quando a falsidade adquire potencial de causar danos concretos, materiais ou imateriais, individuais ou coletivos. Aí, exige-se ponderação cuidadosa entre a proteção contra o dano e a preservação da liberdade de expressão, à luz do princípio do dano formulado por John Stuart Mill (2016, p. 39): “o único fim em função do qual o Poder pode ser corretamente exercido sobre qualquer membro de uma comunidade civilizada, contra sua vontade, é o de prevenir dano a outros”. Não é qualquer mentira que importa para o Direito, mas aquelas com a capacidade de gerar consequências danosas, concretas e mensuráveis para indivíduos, grupos ou a coletividade, podendo influenciar escolhas políticas, comprometer reputações, ameaçar a saúde pública ou desestabilizar processos democráticos.

Nesse cenário, a noção de “pós-verdade” tornou-se central. A realidade objetiva perdeu terreno diante de narrativas moldadas por crenças prévias e interpretações subjetivas. Importa menos o que de fato ocorreu e mais o que se decide acreditar. O termo post-truth, eleito “palavra do ano” em 2016 pelo Oxford Dictionaries[2], captura esse deslocamento cognitivo no qual os julgamentos passam a se orientar por convicções pessoais, enquanto as evidências empíricas que permitem verificar os fatos são relegadas a segundo plano ou até inteiramente desprezadas.

A pós-verdade não equivale ao relativismo filosófico, que discute as condições do conhecimento, nem à sofística, que explorava os recursos da retórica. Trata-se, antes, de uma degradação da esfera pública, marcada pela rejeição deliberada de evidências e pela adesão automática a crenças prévias. O resultado é um ambiente polarizado, impermeável a correções e propenso à disseminação de falsidades, no qual até evidências robustas e verificáveis são sumariamente classificadas como “fake news”.

A expressão “fatos alternativos”, usada por uma conselheira de Donald Trump em 2017 para defender uma declaração manifestamente falsa, tornou-se emblemática desse fenômeno.[3] A referência remete imediatamente à distopia de George Orwell (2004) descrita no livro “1984”, em que a manipulação da linguagem e o “duplipensar” criavam uma realidade moldada pelo poder.[4] Mas fatos não se confundem com versões ou opiniões; são acontecimentos verificáveis, passíveis de demonstração e refutação. A distinção entre fato e opinião é condição mínima para o debate democrático. Como já se observou em formulação célebre, “todos têm direito às próprias opiniões, mas não aos próprios fatos” (Moynihan, 2010, p. 2).[5]

Para além da pós-verdade, o debate contemporâneo ganhou precisão com a tipologia proposta por Wardle e Derakhshan (2018, p. 43) no relatório “Information Disorder”, do Conselho da Europa. Essa classificação diferencia misinformation, disinformation e mal-information. A misinformation abrange erros, enganos e conteúdos imprecisos difundidos sem intenção maliciosa, embora possa gerar efeitos nocivos. A disinformation envolve falsidades deliberadamente produzidas para manipular, confundir ou causar dano, combinando, muitas vezes, elementos verdadeiros e falsos. Já a mal-information refere-se ao uso abusivo de informações verdadeiras, apresentadas de modo a provocar danos, como a divulgação indevida de dados pessoais, de contextos distorcidos ou de fatos selecionados para criar percepções enganosas.

Essas categorias, longe de serem estanques, frequentemente se sobrepõem. Uma informação inicialmente divulgada por engano pode tornar-se desinformação quando alguém passa a compartilhá-la de forma intencional, sabendo que é falsa. A utilidade dessa classificação está em possibilitar respostas jurídicas proporcionais e adequadas à natureza do conteúdo e ao grau de intenção envolvido.

A literatura descreve ainda diversas modalidades de falsidade informativa, que compõem uma taxonomia mais detalhada. O “conteúdo fabricado” constitui a forma mais extrema: notícias inteiramente inventadas, documentos forjados e narrativas completamente fictícias. O caso “Pizzagate”, nas eleições americanas de 2016, tornou-se um exemplo paradigmático. A partir de publicações falsas que alegavam a existência de uma rede de pedofilia operada a partir de uma pizzaria em Washington, milhares de usuários passaram a difundir a história como se fosse verdadeira. A narrativa teve tamanho alcance que levou um homem armado a invadir o estabelecimento, acreditando que libertaria crianças mantidas em cativeiro. O episódio mostra como uma ficção completa pode gerar comportamentos de risco, mobilizar pânico moral e produzir efeitos concretos no mundo real.

As deepfakes, por sua vez, utilizam técnicas avançadas de inteligência artificial para produzir vídeos e áudios falsos, com aparência de autenticidade, e já foram empregadas para fins de desinformação política e difamação, como nos vídeos adulterados que simulam falas de candidatos ou autoridades.

O “conteúdo manipulado” parte de material autêntico, mas altera seu sentido por edições, montagens ou recortes seletivos. Abrange desde intervenções relativamente simples, como a edição seletiva de trechos de uma fala para alterar seu significado, até montagens fotográficas que inserem uma pessoa em um ambiente em que nunca esteve.

As shallowfakes, manipulações rudimentares que exploram elementos autênticos, como vídeos acelerados, desacelerações, cortes bruscos ou alterações simples de imagem, alcançam grande circulação porque a presença de material real confere veracidade ao conteúdo.

O “conteúdo impostor” falsifica a autoria ou a procedência, explorando a credibilidade de veículos ou instituições. Nessa categoria, incluem-se perfis falsos que se passam por órgãos oficiais ou por documentos forjados com aparência burocrática.

O “falso contexto” apresenta material verdadeiro em circunstâncias enganosas, como fotografias de protestos antigos divulgadas como se fossem recentes. O conteúdo enganoso utiliza fatos de forma parcial ou distorcida, manipulando aspectos de enquadramento para induzir interpretações equivocadas.

A “falsa conexão” decorre da discrepância entre manchete e conteúdo, fenômeno amplificado pelo clickbait, que explora títulos sensacionalistas para gerar tráfego.

Há ainda modalidades que orbitam a fronteira entre o humor e a falsidade. A “sátira” ou “paródia”, embora não constitua, em si, desinformação, pode ser interpretada como verdadeira quando retirada de contexto. Em ambientes hiperacelerados, conteúdos de sites como o “The Onion” ou o “Sensacionalista” circulam como notícias reais, alimentando confusões.

A “propaganda”, forma antiga de comunicação persuasiva, torna-se desinformativa quando utiliza dados distorcidos ou meias-verdades para reforçar narrativas políticas, o que é comum tanto em regimes autoritários quanto em campanhas eleitorais democráticas. A publicidade disfarçada de jornalismo, ainda que não envolva falsidade, corrói a fronteira entre informação e propaganda, contribuindo para a erosão da confiança nos veículos tradicionais e diluindo a transparência necessária à formação de escolhas bem fundamentadas.

Consideradas em conjunto, essas modalidades revelam a amplitude e a complexidade do ecossistema da falsidade informativa. Elas exploram vulnerabilidades cognitivas, emocionais e sociais, potencializadas por ambientes digitais que privilegiam rapidez, impacto e senso de pertencimento, em detrimento da verificação e da reflexão crítica (Fallis, 2015; Jack, 2017).

 

2 PSICOLOGIA E COGNIÇÃO DA DESINFORMAÇÃO

 

A facilidade com que acreditamos em informações falsas não resulta de simples ingenuidade, mas de predisposições cognitivas e sociais profundamente enraizadas. Desde cedo, aprendemos a confiar no que nos é dito. A vida em sociedade exige um mínimo de confiança recíproca. Se cada afirmação precisasse ser verificada exaustivamente, a convivência se tornaria inviável. Essa confiança confere fluidez à comunicação, mas também abre espaço para a circulação de mensagens falsas sem barreiras iniciais de desconfiança.

A psicologia cognitiva denomina esse modo automático de confiar na veracidade das mensagens e das manifestações como “viés da presunção de verdade” (truth-default bias) (Levine, 2019). Em regra, partimos do pressuposto de que a comunicação é honesta. A maior parte das interações humanas, de fato, é sincera, o que torna esse viés funcional. O problema é que o mesmo mecanismo que sustenta a cooperação social torna a mente mais permeável à desinformação (Sunstein, 2021, p. 73).

Esse quadro articula-se com o modelo dos “dois sistemas de pensamento” descrito por Daniel Kahneman (2011, p. 29). O chamado “Sistema 1” opera de forma automática e rápida, com pouco esforço e sem controle consciente; o “Sistema 2” exige atenção, esforço mental e concentração. Embora gostemos de imaginar que decidimos com base no Sistema 2, refletido e analítico, a maior parte de nossos julgamentos cotidianos nasce do Sistema 1, que se apoia em impressões, emoções e atalhos mentais.[6] É nesse terreno, de pensamento rápido e pouco vigilante, que a desinformação prospera. Notícias falsas são muitas vezes compartilhadas após a leitura apressada de um título ou de um resumo, sem qualquer exame cuidadoso do conteúdo.

Além disso, funcionamos sob uma espécie de “miopia metacognitiva” (Pantazi; Klein; Kissine, 2020). Tendemos a dar mais peso à primeira informação recebida do que às correções posteriores. A metainformação, isto é, a informação de que determinada mensagem ou notícia é falsa, exige esforço adicional, que muitos não estão dispostos a realizar. Isso explica por que boatos sobre supostos riscos das vacinas mantêm poder de convencimento mesmo depois de desmentidos repetidamente. A primeira impressão, ainda que equivocada, tende a permanecer.

Esse conjunto de mecanismos cognitivos – pensamento rápido, confiança automática e miopia metacognitiva – não atinge apenas pessoas com baixa escolaridade. Médicos, acadêmicos, juristas e profissionais altamente qualificados também já propagaram desinformação sobre vacinas, mudanças climáticas e eleições. Keith Stanovich (2011) ajuda a esclarecer esse paradoxo ao distinguir, no interior do Sistema 2, entre a “mente algorítmica” e a “mente reflexiva”. A primeira refere-se a capacidades como raciocínio lógico, cálculo e habilidades mensuradas por testes de QI. A segunda diz respeito à disposição de questionar crenças, revisar julgamentos e submeter intuições a exame crítico. Alguém pode ser intelectualmente brilhante, mas pouco reflexivo. Nesses casos, a inteligência, quando acionada apenas pela “mente algorítmica”, pode atuar na produção de justificativas sofisticadas, mas enganosas, destinadas a sustentar preconceitos, crenças infundadas ou mesmo afirmações cuja falsidade o indivíduo pressente, ainda que não a reconheça de modo plenamente consciente. Muitas vezes, ele as repete por lealdade identitária, isto é, pelo compromisso psicológico com o grupo ao qual pertence. Sem reflexividade, nem mesmo uma alta capacidade cognitiva protege contra a desinformação.

A essa vulnerabilidade soma-se a dinâmica descrita por Leon Festinger (1957) no conceito de “dissonância cognitiva”. Quando nos deparamos com informações que desafiam nossas crenças centrais, experimentamos um desconforto psicológico significativo. Crenças políticas, religiosas ou morais que integram a identidade social e pessoal do indivíduo são especialmente sensíveis, razão pela qual a informação contrária é percebida como ameaça à coerência interna. Para reduzir esse desconforto, a reação pode variar. Em alguns casos, ajustamos nossas crenças ao aceitarmos a nova informação. Em outros, evitamos confrontos e nos afastamos de fontes de informação divergentes. Há, ainda, a estratégia mais frequente, que consiste em reinterpretar os fatos por meio de racionalizações destinadas a preservar opiniões e convicções prévias. Essa última estratégia decorre do “viés de confirmação”, que é a tendência a buscar, valorizar e recordar com maior facilidade informações que reforçam crenças anteriores, desconsiderando ou desqualificando evidências em sentido contrário.

Hugo Mercier e Dan Sperber (2017; Mercier, 2020) argumentam que a razão humana evoluiu menos como instrumento individual de busca da verdade e mais como faculdade social de argumentação. A razão teria se desenvolvido para justificar crenças já formadas, produzir argumentos capazes de convencer terceiros e avaliar argumentos alheios. Sob essa perspectiva, o viés de confirmação deixa de ser uma anomalia e passa a ser uma consequência previsível do modo como a razão opera em contextos sociais. Em temas centrais para a identidade de grupos, como a política e a religião, essa dinâmica se intensifica. A correção de uma crença não é vivida como aprendizado, mas como uma ameaça ao vínculo com o grupo.

O viés de confirmação não atua isoladamente, ele se intensifica em ambientes digitais que atuam como “câmaras de eco” (Quattrociocchi, 2016). Em grupos virtuais relativamente homogêneos, compostos por pessoas que compartilham crenças, valores e identidades políticas semelhantes, informações convergentes circulam com facilidade e recebem validação constante. No que diz respeito a questões políticas, os membros do grupo acabam desenvolvendo uma “visão de túnel”, tornando-se cegos às opiniões discordantes (Modgil; Singh; Gupta; Dennehy, 2024). Informações dissonantes são desqualificadas ou simplesmente descartadas. Grupos antivacina e negacionistas da pandemia da covid-19 ilustram essa dinâmica: nesses ambientes, relatos anedóticos e teorias conspiratórias sobre vacinas adquiriram o estatuto de verdades inquestionáveis, enquanto estudos científicos rigorosos foram rotulados como manipulação.

A “homofilia”, conceito central da sociologia das redes sociais, ajuda a compreender o padrão de agregação que caracteriza muitos ambientes digitais. Trata-se da tendência de nos aproximarmos de pessoas que compartilham valores, crenças e orientações semelhantes às nossas. Em plataformas digitais, esse mecanismo espontâneo de afinidade é ampliado pelos algoritmos, que reforçam conexões entre usuários com perfis semelhantes. O resultado é a formação de bolhas informacionais relativamente homogêneas, nas quais narrativas compartilhadas se reforçam mutuamente e opiniões divergentes tendem a desaparecer ou a serem percebidas como hostis (Recuero; Gruzd, 2019; Mcpherson; Smith-Lovin; Cook, 2001).

As câmaras de eco não apenas reforçam crenças já existentes, mas também favorecem a intensificação de posições. A “polarização de grupo”, estudada pela psicologia social, mostra que, quando indivíduos com opiniões parecidas debatem apenas entre si, tendem a adotar posições mais extremas do que as que tinham inicialmente (Sunstein, 2017, p. 67). Nas redes sociais, isso se combina com algoritmos que premiam conteúdos que geram engajamento emocional. Postagens mais intensas, indignadas ou alarmistas circulam mais, o que empurra o discurso para posições cada vez mais radicais.

Outra dimensão relevante diz respeito à assimetria entre a velocidade da mentira e a da verdade. Estudo conduzido por pesquisadores do MIT mostrou que notícias falsas circulam mais rápido e mais longe do que as verdadeiras em plataformas como o Twitter (atual X) (Vosoughi; Roy; Aral, 2018). Há razões psicológicas e sociológicas para essa diferença. A mentira costuma ser mais simples, mais surpreendente e mais emocional do que a realidade, que, muitas vezes, é complexa e exige explicações que dependem de nuances. Narrativas falsas oferecem vilões claros, causas únicas e soluções aparentes. A verdade, por sua vez, requer tempo, contexto e reconhecimento das incertezas. Em um ambiente saturado de estímulos, esse contraste favorece o conteúdo enganoso.

Além disso, a desinformação explora emoções intensas. Medo, indignação e repulsa aumentam a probabilidade de compartilhamento. A exposição contínua a uma sobrecarga de informações produz o que Byung-Chul Han (2016, p. 74) identifica como Síndrome da Fadiga da Informação, estado em que a mente perde a capacidade de selecionar, hierarquizar e distinguir o essencial do acessório. Em vez de favorecer o esclarecimento, a enxurrada de informações deforma o juízo, enfraquece a análise e reduz a disposição para verificar o conteúdo das mensagens. O resultado é uma progressiva atrofia do pensamento crítico, que leva as pessoas a reagir de maneira imediata e emocional, em vez de refletida e ponderada.

A disseminação da desinformação também se explica pelo “efeito em cascata”, que ocorre quando indivíduos, em sequência, deixam de confiar em suas próprias percepções e passam a adotar a opinião ou a conduta de terceiros. Em vez de avaliar criticamente a mensagem recebida, orientam-se pela decisão já tomada por outros (Sunstein, 2017, p. 83). O fenômeno se aproxima da chamada “mentalidade de rebanho”, em que comportamentos são imitados pelo desejo de pertencimento ou pelo medo de isolamento. A diferença é que, na cascata informacional, há uma escolha consciente de abandonar informações próprias para seguir as de terceiros, ainda que persistam dúvidas quanto à sua consistência. Em ambos os casos, a autonomia crítica é substituída pela conformidade (Çelen; Kariv, 2003; Dotey; Rom; Vaca, 2011).

Em comunidades homogêneas e densamente conectadas, essas cascatas se somam à homofilia e às câmaras de eco, de modo que a desinformação adquire aparência de consenso. O indivíduo não acredita porque examinou as evidências, mas porque “todos ao seu redor acreditam”. A validação social ocupa o lugar do exame crítico, conferindo às falsidades estabilidade, resistência à correção e potencial de mobilização política.

Em síntese, a psicologia e a cognição da desinformação revelam que o problema vai muito além da produção e circulação de conteúdos falsos. Ele está enraizado no modo como pensamos, sentimos, como nos relacionamos em grupos e interagimos em ambientes digitais projetados para maximizar o engajamento, não a veracidade. Compreender esses mecanismos constitui condição indispensável para qualquer resposta jurídica e institucional ao fenômeno.

 

 

 

3 ALGORITMOS E O CONTROLE DO FLUXO INFORMACIONAL

 

A difusão da desinformação não decorre apenas de predisposições cognitivas e mecanismos sociais de reforço. Ela também se alimenta do modo como os algoritmos controlam o fluxo informacional nas plataformas digitais. Motores de busca e redes sociais organizam esse fluxo com base em sistemas que coletam e processam dados de navegação dos usuários, suas preferências declaradas e interações anteriores, produzindo perfis detalhados que orientam o que lhes será exibido.

Esses sistemas funcionam como “filtros invisíveis” que controlam o que circula e o que é omitido do ambiente digital. Ao identificarem padrões de comportamento, os algoritmos passam a destacar conteúdos que confirmam os interesses e inclinações do usuário. Com o tempo, elaboram modelos preditivos sobre quem somos e o que provavelmente desejaremos ler, ver ou comprar (Zuboff, 2019). Esse mecanismo, apresentado como vantagem por oferecer conveniência e foco, acaba por estreitar o horizonte de informações acessíveis, reforçando crenças pré-existentes e reduzindo o contato com perspectivas divergentes.

Esse processo é intensificado pelo modelo econômico das plataformas digitais, estruturado na “economia da atenção” (Wu, 2016). Conteúdos que despertam emoções intensas tendem a gerar mais cliques, compartilhamentos, visualizações e tempo de permanência no ambiente digital, o que aumenta sua visibilidade. Como reações emocionais fortes costumam surgir de materiais polarizadores, escandalosos ou alarmistas, os algoritmos priorizam exatamente esse tipo de conteúdo, no qual a desinformação prospera. A lógica comercial dessas empresas, voltada a maximizar o engajamento, reforça o problema de forma estrutural.

A personalização também opera por ciclos de reforço. Quando o usuário interage com determinado tipo de mensagem, a plataforma intensifica a entrega de conteúdos semelhantes, reduzindo gradualmente a diversidade das informações disponíveis. Como consequência, o repertório se torna cada vez mais homogêneo e previsível. Essa dinâmica produz trajetórias informacionais distintas para indivíduos diferentes, que passam a habitar espaços cognitivos parcialmente separados. A consequência é a criação de bolhas de informação, resistentes a informações externas.

Eli Pariser (2011) denominou esse fenômeno de “bolha de filtro”. Dentro dela, o indivíduo tem a impressão de circular livremente, quando, na verdade, move-se em um ambiente cuidadosamente modelado por escolhas algorítmicas. Conservadores passam a receber, majoritariamente, conteúdos alinhados às suas posições; progressistas, conteúdos progressistas; grupos religiosos, mensagens que reforçam sua visão de mundo. A diversidade informativa se reduz, enquanto as narrativas uniformes ganham força.

Esse direcionamento ocorre sem qualquer transparência. Devido à “opacidade algorítmica” (Pasquale, 2015), o usuário desconhece os critérios que definem o que lhe é exibido e ignora quais conteúdos lhe são ocultados. Essa opacidade dificulta a auditoria independente, impede a verificação da existência de vieses estruturais e fragiliza a responsabilização das empresas por danos causados por suas ferramentas de recomendação. Produz-se, assim, uma forma de “determinismo informativo”, em que decisões fundamentais sobre o que se conhece e o que se deixa de conhecer deixam de ser tomadas pelo indivíduo e passam a ser determinadas por empresas privadas que controlam a infraestrutura comunicacional.

Em síntese, os algoritmos não apenas refletem preferências, mas também moldam realidades. Ao controlar o fluxo informacional por meio do perfilamento algorítmico, da formação de bolhas de filtro e de padrões de recomendação dirigidos, reduzem a complexidade do debate público, fragmentam o espaço comum de referências e favorecem a circulação de narrativas falsas entre audiências predispostas a acolhê-las. O resultado é um ambiente em que a desinformação encontra terreno fértil, pois alcança públicos segmentados, protegidos por filtros que excluem a divergência e limitam o confronto crítico de ideias.

 

4 MENTIRA POLÍTICA E CORROSÃO DEMOCRÁTICA

 

A mentira na política não é um fenômeno recente. Hannah Arendt, em Verdade e Política, observou que a verdade factual raramente convive em harmonia com o exercício do poder. O que distingue a era digital é a escala inédita de manipulação e o poder da desinformação de influenciar processos eleitorais, alimentar polarizações e corroer os fundamentos da democracia.

A eleição presidencial dos Estados Unidos em 2016 tornou-se o marco simbólico dessa inflexão. A vitória inesperada de Donald Trump foi antecedida por uma avalanche de notícias fraudulentas, parte delas destinada a atacar sua adversária Hillary Clinton. Falsidades como a alegação de que Clinton teria vendido armas a grupos terroristas ou de que lideraria uma rede de exploração sexual de crianças em uma pizzaria de Washington, o chamado “Pizzagate”, ilustram o grau de distorção atingido pelo debate público e a capacidade de teorias conspiratórias de mobilizar condutas concretas. Também circularam boatos favoráveis a Trump, como o suposto apoio do Papa à sua candidatura.[7]

O fenômeno, contudo, não se restringiu aos Estados Unidos. A campanha do Brexit, em 2016, no Reino Unido, foi marcada por teorias que atribuíam a imigrantes a responsabilidade por crises econômicas e sociais (Parnell, 2024). Na França, as eleições presidenciais de 2022 também sofreram interferência de campanhas de desinformação[8].

No Brasil, as eleições de 2018 tornaram-se um exemplo paradigmático do uso estratégico da mentira política. Uma das narrativas mais conhecidas foi a do chamado “kit gay”, uma expressão pejorativa criada para descrever supostos materiais pedagógicos impróprios que nunca chegaram a existir. A acusação de que o então candidato Fernando Haddad teria promovido a distribuição desses materiais quando Ministro da Educação foi repetida em debates e entrevistas televisivas, tornando-se uma das fake news mais influentes da campanha[9]. Ainda em relação às eleições de 2018 no Brasil, em plena campanha para o primeiro turno, circulou um vídeo que mostrava um homem segurando uma mamadeira com o bico em formato de pênis. No vídeo, o homem alegava, falsamente, que esse tipo de mamadeira seria distribuído em creches se o candidato do Partido dos Trabalhadores chegasse ao poder[10]. Notícias fraudulentas e bizarras, como essa, exploram medos morais profundos. Por mais inverossímil que pareçam, mobilizam emoções intensas porque envolvem a proteção de crianças e produzem sensação de pânico moral.

A desinformação eleitoral é particularmente grave. Ela contamina a vontade do eleitor, compromete a legitimidade do resultado e ameaça o próprio processo democrático. A mentira política não é simples recurso retórico, mas prática corrosiva que abala a confiança pública, distorce o debate e compromete a integridade das instituições. O enfrentamento jurídico desse problema é inevitável, embora envolva dilemas delicados. A responsabilização é necessária para coibir abusos, mas exige cautela para que não resulte em censura ou perseguição política. O desafio consiste em conciliar mecanismos de controle com a preservação da liberdade de expressão, fundamento irrenunciável da democracia.

 

 

 

5 O DESAFIO DA REGULAÇÃO DAS PLATAFORMAS DIGITAIS

 

Esse panorama revela que a regulação das plataformas digitais se tornou uma questão central no mundo contemporâneo. A visão inicial da internet como um espaço de liberdade ilimitada mostrou-se insustentável diante dos abusos e da concentração de poder nas mãos de grandes corporações tecnológicas. A pergunta já não é se devemos regular, mas como fazê-lo de modo equilibrado.

Casos recentes ilustram a complexidade do problema. A resistência do Telegram a cumprir ordens judiciais no Brasil e a posterior ameaça de suspensão pelo Supremo Tribunal Federal evidenciaram a dificuldade de aplicar a jurisdição nacional a plataformas sem representação local. A decisão de Elon Musk de fechar os escritórios da plataforma X no país, interpretada como uma tentativa de evasão regulatória, levou à suspensão provisória do serviço. Esses episódios revelam a tensão entre a soberania estatal e o poder corporativo transnacional.

A experiência comparada mostra caminhos distintos. A Alemanha inaugurou, em 2017, a NetzDG, que impõe obrigações rigorosas às plataformas quanto à remoção célere de conteúdos manifestamente ilícitos, já tipificados em lei, sob pena de multas elevadas. A União Europeia avançou com o Digital Services Act (DSA), que estabelece regras para moderação, transparência algorítmica e deveres de diligência, e com o Digital Markets Act (DMA), voltado a limitar práticas monopolísticas de grandes empresas tecnológicas.

No Brasil, o Marco Civil da Internet (Lei nº 12.965/2014) e a Lei Geral de Proteção de Dados (Lei nº 13.709/2018) constituem marcos relevantes, mas insuficientes para enfrentar a desinformação em larga escala. O debate sobre o chamado “PL das Fake News” revela tensões entre os riscos de censura e a necessidade de responsabilização.

Nesse contexto, o Supremo Tribunal Federal, em junho de 2025, declarou parcialmente inconstitucional o artigo 19 do Marco Civil. Manteve a necessidade de ordem judicial como regra, mas reconheceu exceções para casos objetivamente graves, como conteúdos impulsionados por pagamento, ampla circulação de material ilícito ou situações que envolvam atos antidemocráticos, terrorismo, discurso de ódio ou pornografia infantil. Em tais hipóteses, a omissão das plataformas pode gerar responsabilização mesmo na ausência de decisão prévia, aproximando o país de modelos híbridos que articulam a intervenção judicial com deveres de resposta rápida (Brasil, 2017a, 2017b).

Em agosto de 2025, o Senado aprovou o Estatuto Digital da Criança e do Adolescente, reforçando a proteção de menores no ambiente online. Apesar desses avanços, a autorregulação das plataformas mostrou-se insuficiente. Empresas orientadas por modelos de negócios baseados no engajamento e na monetização de dados raramente adotam medidas que comprometam sua lucratividade. Por isso, alguns autores defendem modelos de autorregulação supervisionada, que combinam a expertise técnica das plataformas com normas públicas destinadas a assegurar transparência, proporcionalidade e proteção efetiva dos direitos fundamentais.

A regulação das plataformas não exige a escolha entre liberdade absoluta e controle rígido. O desafio real consiste em encontrar um equilíbrio que permita enfrentar abusos sem comprometer a liberdade de expressão. A preservação da democracia exige um ecossistema informativo minimamente confiável, no qual a verdade factual não seja eclipsada por campanhas coordenadas de desinformação e por assimetrias de poder entre cidadãos e corporações transnacionais.

 

CONSIDERAÇÕES FINAIS: LIBERDADE COM RESPONSABILIDADE

 

A internet ampliou significativamente as possibilidades de comunicação e de participação pública, mas também se tornou terreno fértil para campanhas coordenadas de manipulação, para a difusão acelerada de conteúdos enganosos e para o acirramento de conflitos sociais. Essa ambivalência expressa o problema central discutido ao longo do artigo: como enfrentar a desinformação em larga escala sem comprometer a liberdade de expressão nem fragilizar as bases da democracia.

As reflexões aqui desenvolvidas confirmam a hipótese inicial de que não há solução única para o fenômeno. A desinformação resulta da interação entre fatores psicológicos, sociais, tecnológicos e políticos, e qualquer estratégia eficaz precisa reconhecer essa complexidade.

O percurso analítico deste estudo permitiu compreender essa articulação em diferentes níveis. Na primeira parte, examinou-se a natureza multifacetada da falsidade informativa, que vai das pequenas inverdades sociais à produção deliberada de conteúdos falsos, passando por formas híbridas, como o conteúdo manipulado, o falso contexto e a mal-information. Na segunda parte, dedicada à psicologia e à cognição, analisaram-se os mecanismos que tornam indivíduos e grupos vulneráveis à desinformação, como o viés da presunção de verdade, a prevalência do Sistema 1, a miopia metacognitiva, a dissonância cognitiva, o viés de confirmação, as câmaras de eco, a polarização algorítmica e o efeito cascata. A terceira parte abordou o papel dos algoritmos no controle do fluxo informacional, destacando como bolhas de filtro, perfilamento e sistemas automatizados de recomendação moldam ambientes informacionais segmentados. A quarta parte examinou a mentira política e seus efeitos corrosivos sobre a democracia, revelando como campanhas de desinformação influenciam processos eleitorais e ampliam polarizações. Por fim, a quinta parte analisou os desafios regulatórios contemporâneos, mostrando que enfrentar a desinformação exige lidar com tensões entre soberania estatal, poder corporativo transnacional e proteção da liberdade de expressão.

Essas dimensões, quando consideradas em conjunto, indicam que as respostas institucionais precisam ser integradas. As plataformas digitais devem adotar práticas que desencorajem a amplificação de conteúdos enganosos e aumentem a transparência sobre seus sistemas de recomendação. Estados e instituições públicas devem agir de modo proporcional, com base em critérios claros e evidências empíricas, evitando tanto a omissão, que favorece abusos informacionais, quanto intervenções que possam ser interpretadas como censura ou perseguição política. A educação midiática e científica, especialmente entre jovens, é indispensável para formar cidadãos capazes de avaliar criticamente informações em ambientes digitais saturados.

A democracia depende de um ecossistema informativo minimamente confiável. Nenhuma sociedade se livra inteiramente de boatos ou mentiras, mas é possível reduzir seus efeitos ao fortalecer mecanismos institucionais, promover a cultura crítica e responsabilizar agentes que se beneficiam da desinformação para fins políticos ou econômicos. Defender a liberdade de expressão não implica tolerar práticas que distorcem o debate público. Ao contrário, proteger a liberdade exige impedir que ela seja instrumentalizada para gerar opacidade, confusão ou erosão institucional.

Consolidar uma política de “liberdade com responsabilidade” significa reconhecer a complexidade do fenômeno, agir com base em evidências e preservar as condições que tornam possível a convivência democrática. O desafio é equilibrar a circulação livre de ideias com a necessidade de impedir que a mentira, a manipulação e o ódio corroam os fundamentos do espaço público. Esse compromisso deve orientar as sociedades que buscam manter viva a promessa democrática em tempos de radicalização e incerteza.

 

 

REFERÊNCIAS

 

ARENDT, Hannah. Verdade e política. In:  ARENDT, Hannah. Entre o passado e o futuro. 8. ed. São Paulo: Perspectiva, 2016.

 

BRASIL. Senado Federal. Projeto de Lei nº 2.628, de 2022. Dispõe sobre proteção integral de crianças e adolescentes no ambiente digital (Estatuto Digital da Criança e do Adolescente). Brasília, DF: Senado, 2022. Disponível em: https://share.google/3WBe6HCZ9KdILvzNp. Acesso em: 18 nov. 2025.

 

BRASIL. Supremo Tribunal Federal (2. Turma). Recursos Extraordinário nº 1.037.396/SP (Tema 987). Direito processual civil e do trabalho. Liquidação / Cumprimento / Execução. Obrigação de fazer / não fazer [...].  Recorrente: Facebook Serviços Online do Brasil Ltda. Relator: Min. Dias Toffoli, julgado em 29 mar. 2017. Brasília, DF: Supremo Tribunal Federal, 2017a. Disponível em: https://portal.stf.jus.br/processos/detalhe.asp?incidente=5160549. Acesso em:  18 nov. 2025.

 

BRASIL. Supremo Tribunal Federal (1. Turma). Recursos Extraordinário nº 1.057.258/ MG (Tema 533). Direito do consumidor. Responsabilidade do fornecedor. Indenização por dano moral. Recorrente: Google Brasil Internet Ltda. Relator: Min. Luiz Fux, julgado em 27 jun. 2017. Brasília, DF: Supremo Tribunal Federal, 2017b. Disponível em: https://portal.stf.jus.br/processos/detalhe.asp?incidente=5217273. Acesso em: 18 nov. 2025.

 

ÇELEN, Bogaçhan; KARIV, Shachar. Distinguishing informational cascades from herd behavior in the laboratory. Econometrics Laboratory, Berkeley, CA, 22 out. 2003. Disponível em: https://eml.berkeley.edu/~kariv/CK_II.pdf. Acesso em: 18 nov. 2025.

 

COELHO, Gabriela. Ministro do TSE determina remoção de vídeos sobre “kit gay”. Consultor Jurídico, São Paulo, 16 out. 2018. Disponível em: https://www.conjur.com.br/2018-out-16/ministro-tse-determina-remocao-videos-kit-gay/. Acesso em: 11 nov. 2022.

 

COLEMAN, Alistair. French election: misinformation targets candidates and voting system. BBC, London, 22 abr. 2022. Disponível em: https://www.bbc.com/news/61179620. Acesso em: 17 nov. 2025.

 

DOTEY, Andrew; ROM, Hassan; VACA, Carmen. Information diffusion in social media. Stanford University, Stanford, CA, 11 dez. 2011. Disponível em: https://snap.stanford.edu/class/cs224w-2011/proj/mrom_Finalwriteup_v1.pdf. Acesso em: 10 nov. 2022.

 

FALLIS, Don. What is Disinformation? Library Trends, [s.l.], v. 63, n. 3, p. 401-426, 2015.

 

FESTINGER, Leo. A theory of cognitive dissonance. Stanford: Stanford University Press, 1957.

 

FRANCE, Anatole. La vie en fleur. Paris: Calmann-Lévy, 1922.

 

JACK, Caroline. Lexicon of Lies: Terms for Problematic Information. New York: Data & Society Research Institute, 2017.

 

KAHNEMAN, Daniel. Rápido e devagar. Rio de Janeiro: Objetiva, 2011.

 

HAN, Byung-Chul. No enxame: reflexões sobre o digital. Lisboa: Relógio D´Água, 2016.

 

LEVINE, Timothy R. DUPED: truth-default theory and the social science of lying and deception. University Alabama Press, 2019.

 

MCPHERSON, M.; SMITH-LOVIN, L.; COOK, J. M. Birds of a feather: Homophily in social networks. Annual Review of Sociology, San Mateo, CA, v. 27, n. 1, p. 415–444, 2001. Disponível em: https://www.annualreviews.org/content/journals/10.1146/annurev.soc.27.1.415. Acesso em: 17 nov. 2025.

 

MERCIER, Hugo. Not Born Yesterday: The Science of Who We Trust and What We Believe. Princeton: Princeton University Press, 2020.

 

MERCIER, Hugo; SPERBER, Dan. The Enigma of Reason: A New Theory of Human Understanding. Cambridge: Harvard University Press, 2017.

 

MILL, John Stuart. Sobre a Liberdade. Tradução de Pedro Madeira. Lisboa: Edições 70, 2016.

 

MODGIL, Sachin; SINGH, Rohit Kumar; GUPTA, Shivam; e DENNEHY, Denis. A confirmation bias view on social media induced polarisation during Covid-19. Information Systems Frontiers, Heidelberg, DE, v. 26, n. 2, p. 417-441, 2024. Disponível em: https://link.springer.com/content/pdf/10.1007/s10796-021-10222-9.pdf. Acesso em: 11 nov. 2022.

 

MOYNIHAN, Daniel Patrick. Daniel Patrick Moynihan: a portrait in letters of an american visionary. New York: PublicAffairs, 2010. Introdução, p. 2.

 

ORWELL, George. 1984. Tradução de Wilson Velloso. 29. ed. São Paulo: Companhia Editora Nacional, 2004.

 

PANTAZI, Myrto; KLEIN, Olivier; KISSINE, Mikhail. Is Justice Blind or Myopic? Judgement & Decision Making, Cambridge, UK, v. 15, n. 2, p. 214-229, mar. 2020.

 

PARISIER, Eli. O filtro invisível: o que a internet está escondendo de você. Rio de Janeiro: Zahar, 2011.

 

PARNELL, Tamsin. “Brexit and Disinformation”. In: MACI, Stefania et al. The Routledge Handbook of Discourse and Disinformation. London: Routledge, 2024.

 

PASQUALE, Frank. The black box society: the secret algorithms that control money and information. Cambridge: Harvard University Press, 2015.

 

POST-TRUTH. In: OXFORD Dictionaries: word of the year 2016. Oxford: Oxford University Press, 2016. Disponível em: https://languages.oup.com/word-of-the-year/2016/. Acesso em: 19 set. 2025.

 

QUATTROCIOCCHI, Walter. How does misinformation spread online? World Economic Forum, Cologny, GB, 14 jan. 2016. Disponível em: https://www.weforum.org/stories/2016/01/q-a-walter-quattrociocchi-digital-wildfires/. Acesso em: 11 nov. 2022.

 

RECUERO, Raquel; GRUZD, Anatolyi. Cascatas de fake news políticas: um estudo de caso no Twitter. Galaxia, São Paulo, n. 41, p. 31-47, maio/ago. 2019. Disponível em: https://www.scielo.br/j/gal/a/Kvxg4btPzLYdxXk77rGrmJS/?lang=pt&format=pdf. Acesso em: 10 nov. 2022.

 

RITCHIE, Hannah. Read all about it: the biggest fake news stories of 2016. CNBC, Englewood Cliffs, NJ, 30 dez. 2016. Disponível em: https://www.cnbc.com/2016/12/30/read-all-about-it-the-biggest-fake-news-stories-of-2016.html. Acesso em: 11 nov. 2022.

 

RODRIGUES, Henrique. Mamadeira de piroca: perfis que espalharam boato em 2018 seguem atuando contra o PT. Revista Fórum, [s.l.], 25 ago. 2022. Disponível em: https://revistaforum.com.br/politica/2022/8/25/mamadeira-de-piroca-perfis-que-espalharam-boato-em-2018-seguem-atuando-contra-pt-122234.html. Acesso em: 10 nov. 2022.

 

STANOVICH, Keith Stanovich; WEST, Richard. Individual differences in reasoning: implications for the rationality debate. Behavioral and Brain Sciences, Cambridge, n. 23, p. 645-65, 2000.

 

STANOVICH, Keith E. Rationality and the Reflective Mind. Oxford: Oxford University Press, 2011.

 

SUNSTEIN, Cass. Conformity: the power of social influences. New York: New York University Press, 2019.

 

SUNSTEIN, Cass R. Liars: falsehoods and free speech in an age of deception. Oxford: Oxford University Press, 2021.

 

SUNSTEIN, Cass. #Republic: divided democracy in the age of social media. Princeton: Princeton  University Press, 2017.

 

TVERSKY, Amos; KAHNEMAN, Daniel. Judgment under uncertainty: heuristics and biases. Science, [s.l.], v. 185, n. 4157, p. 1124-1131, 1974.

 

VOSOUGHI, Soroush; ROY, Deb; ARAL, Sinan. The spread of true and false news online. Science, Washington, DC, v. 359, n. 6380, p. 1146-1151, 9 mar. 2018. Disponível em: https://science.sciencemag.org/content/359/6380/1146. Acesso em: 10 nov. 2022.

 

WARDLE, Claire; DERAKHSHAN, Hossein. Thinking about ‘information disorder’: formats of misinformation, disinformation, and mal-information. In: IRETON, Cherilyn; POSETTI, Julie. Journalism, fake news and disinformation. Paris: UNESCO, 2018. Disponível em: https://bibliotecadigital.tse.jus.br/xmlui/bitstream/handle/bdtse/6339/2018_ireton_journalism_fake_news.pdf?sequence=1&isAllowed=y. Acesso em: 10 nov. 2022.

 

WU, Tim. The attention merchants: the epic scramble to get inside our heads. New York: Knopf, 2016.

 

ZUBOFF, Shoshana. The age of surveillance capitalism: the fight for a human future at the new frontier of power. New York: PublicAffairs, 2019.

 



* Doutor em Direito pela Universidade Estácio de Sá. Research Affiliate of the Rule of Law Working Group of CEU Democracy Institute. Professor do Programa de Pós-Graduação da UNESA. Desembargador do Tribunal de Justiça do Estado do Rio de Janeiro.

[1] Texto original: “J’aime la vérité. Je crois que l’humanité en a besoin; mais elle a bien plus grand besoin encore du mensonge qui la flatte, la console, lui donne des espérances infinies. Sans le mensonge, elle périrait de désespoir et d’ennui.”

[2] Definido como “circumstances in which objective facts are less influential in shaping public opinion than appeals to emotion and personal belief”.

[3] Em 22 de janeiro de 2017, Kellyanne Conway, conselheira do então presidente dos Estados Unidos, Donald Trump, defendeu, em entrevista televisiva, a declaração falsa do porta-voz da Casa Branca, segundo a qual a cerimônia de posse presidencial daquele ano teria reunido o maior público da história. Questionada sobre a evidente falsidade da afirmação, Conway respondeu que o porta-voz havia apresentado “fatos alternativos” (alternative facts). A expressão tornou-se emblemática da lógica da pós-verdade ao sugerir que dados objetivos e verificáveis poderiam ser tratados como meras versões concorrentes da realidade.

[4] Na sociedade ficcional descrita no romance, a “novilíngua” (newspeak) corrompia o significado das palavras, enquanto o “duplipensar” (doublethink) permitia a negação consciente da realidade objetiva, combinando a mentira deliberada com a crença obstinada em sua veracidade.

[5] A frase é atribuída ao político e diplomata americano Daniel Patrick Moynihan: “Everyone is entitled to his own opinion, but not to his own facts.”

[6] Essa dualidade já havia sido observada em diferentes estudos, mas foi a partir do trabalho de Keith Stanovich e Richard West que ela recebeu uma formulação mais precisa, com a proposta dos termos Sistema 1 e Sistema 2. Daniel Kahneman, reconhecendo essa contribuição, incorporou a terminologia e a tornou amplamente conhecida em seu livro Rápido e Devagar, no qual sintetiza, com base em décadas de pesquisas realizadas em parceria com Amos Tversky, os mecanismos que regem esses dois sistemas de pensamento.

[7] A respeito dessas fake news, ver matéria da CNBC. Disponível em: https://www.cnbc.com/2016/12/30/read-all-about-it-the-biggest-fake-news-stories-of-2016.html. Acesso em: 11 nov. 2022.

[8] Ver site da BBC: French election: misinformation targets candidates and voting system. Disponível em: https://www.bbc.com/news/61179620. Acesso em 17 nov. 2025.

[9] Veja-se, a respeito, matéria publicada no CONJUR. Disponível em: https://www.conjur.com.br/2018-out-16/ministro-tse-determina-remocao-videos-kit-gay. Acesso em: 11 nov. 2022.

[10] Sobre o vídeo, veja-se a matéria do Fórum. Disponível em: https://revistaforum.com.br/politica/2022/8/25/mamadeira-de-piroca-perfis-que-espalharam-boato-em-2018-seguem-atuando-contra-pt-122234.html. Acesso em: 10 nov. 2022.