Liberdade de expressão, Desinformação E DEMOCRACIA na
Era DIGITAL
Freedom of expression, disinformation and democracy in
the digital age
André Gustavo Corrêa de Andrade *
Resumo:
A
desinformação tornou-se uma das principais ameaças à vida democrática e à
própria ideia de verdade factual. Este artigo examina o fenômeno sob uma
perspectiva teórico-bibliográfica, discutindo seus fundamentos cognitivos,
sociais e tecnológicos. Analisa-se a distinção entre misinformation,
disinformation e mal-information,
bem como a multiplicidade de formas que a falsidade informativa assume no
ambiente digital. Em seguida, são abordados os fatores psicológicos que
explicam a credulidade humana, como os vieses cognitivos e as dinâmicas das
câmaras de eco e das bolhas de filtro. O texto também investiga a relação entre
a mentira política e a corrosão democrática, destacando o papel dos algoritmos
e dos modelos de negócios das plataformas digitais na amplificação da
desinformação. Por fim, discutem-se o desafio da regulação das plataformas, a
responsabilidade das empresas de tecnologia e o equilíbrio necessário entre a
liberdade de expressão e a proteção contra abusos informacionais.
Palavras-chave: liberdade de expressão; desinformação;
democracia; fake news;
plataformas digitais; regulação.
Abstract:
Disinformation has become one of the main threats to democratic life and to the
very notion of factual truth. This article examines the phenomenon from a
theoretical and bibliographical perspective, discussing its cognitive, social,
and technological foundations. It analyses the distinction between misinformation,
disinformation, and mal-information, as well as the multiple
forms that false or misleading information takes in the digital environment.
The study examines the psychological factors that contribute to human
credulity, including cognitive biases and the dynamics of echo chambers and
filter bubbles. It further investigates the relationship between political lies
and democratic erosion, emphasizing the role of algorithms and digital
platforms’ business models in amplifying disinformation. Finally, it discusses
the challenge of regulating digital platforms, the responsibility of technology
companies, and the need to reconcile freedom of expression with protection
against informational abuses.
Keywords: freedom
of expression; disinformation; democracy; fake news; digital platforms;
regulation.
INTRODUÇÃO
A circulação de
informações falsas e manipuladas tornou-se um dos fenômenos mais preocupantes
da vida pública contemporânea. A desinformação em massa, amplificada pela
arquitetura das plataformas digitais e pela lógica de atenção que orienta seu
funcionamento, compromete a qualidade do debate público e afeta diretamente a
confiança nas instituições democráticas. O problema possui relevância jurídica
evidente, pois envolve comunicações que produzem ou podem produzir danos
concretos a terceiros, à coletividade ou ao funcionamento de instituições
essenciais ao regime democrático. O foco, portanto, não recai em manifestações
meramente inadequadas ou moralmente questionáveis, mas sim naquelas que, por
sua natureza e alcance, ultrapassam o limite da proteção constitucional da
expressão e ingressam no campo dos ilícitos.
Coloca-se,
assim, a seguinte questão central: como enfrentar a desinformação em larga
escala sem comprometer a liberdade de expressão nem fragilizar a própria
democracia que se pretende proteger? Parte-se da hipótese de que respostas
eficazes ao problema exigem uma abordagem integrada que considere os fatores
cognitivos que tornam indivíduos e grupos vulneráveis à falsidade, o papel
estrutural das plataformas digitais na amplificação desses conteúdos e a
necessidade de parâmetros normativos que permitam responsabilizar agentes
privados e públicos quando provocam danos informacionais relevantes, sem recair
em práticas censórias ou restrições indevidas à circulação de ideias.
O objetivo
geral deste artigo é examinar a desinformação como fenômeno informacional,
cognitivo e político, a fim de identificar critérios que orientem modelos
legítimos de regulação das plataformas digitais compatíveis com a liberdade de
expressão. O estudo se desenvolve em torno de três eixos: delimitação
conceitual da desinformação; análise dos mecanismos cognitivos e sociais que
favorecem sua aceitação; e avaliação de possíveis respostas institucionais e
regulatórias.
A pesquisa
adota uma abordagem teórico-bibliográfica, com foco na literatura jurídica,
filosófica, psicológica e comunicacional dedicada ao tema. Utiliza-se um método
predominantemente dedutivo, complementado por raciocínios indutivos quando
necessário. A análise busca identificar convergências e tensões nas abordagens
existentes e articulá-las à hipótese de que soluções eficazes precisam
conciliar responsabilidade, transparência e proteção das liberdades
fundamentais.
1 FALSIDADE: CONCEITOS
E MODALIDADES
A falsidade nem
sempre constitui um problema para o Direito. A vida social comporta um
repertório variado de pequenas inverdades que desempenham funções de
convivência, proteção e cortesia. Entre essas formas de inverdade encontram-se
as chamadas “mentiras sociais”, empregadas para evitar constrangimentos,
preservar a cordialidade e suavizar relações interpessoais; as “mentiras
benevolentes ou piedosas”, contadas para poupar sofrimento ou angústia; as
“mentiras de incentivo”, usadas para encorajar alguém em situações de
fragilidade ou no início de um aprendizado; as “mentiras de privacidade”, que
servem para resguardar a intimidade sem intenção de prejudicar terceiros; e as
“mentiras de modéstia”, quando alguém subestima deliberadamente suas próprias
realizações para não parecer arrogante ou para se integrar melhor a um grupo.
Esses exemplos,
que não esgotam as diversas hipóteses de mentiras inofensivas, mostram que a
mentira, até certo ponto, integra a dinâmica da vida em sociedade. Como escreveu
Anatole France: “Gosto da verdade. Acredito que a
humanidade precisa dela; mas precisa ainda muito mais da mentira que a adula, a
consola e lhe dá esperanças sem fim. Sem a mentira, a humanidade morreria de
desespero e tédio” (France, 1922, p. 76).[1] A falsidade e a dissimulação
não apenas fazem parte da vida social, mas, em muitas situações, são
necessárias ou até esperadas.
O interesse
jurídico surge quando a falsidade adquire potencial de causar danos concretos,
materiais ou imateriais, individuais ou coletivos. Aí, exige-se ponderação
cuidadosa entre a proteção contra o dano e a preservação da liberdade de
expressão, à luz do princípio do dano formulado por John Stuart Mill
(2016, p. 39): “o único fim em função do qual o Poder pode ser corretamente exercido
sobre qualquer membro de uma comunidade civilizada, contra sua vontade, é o de
prevenir dano a outros”. Não é qualquer mentira que importa para o Direito, mas
aquelas com a capacidade de gerar consequências danosas, concretas e
mensuráveis para indivíduos, grupos ou a coletividade, podendo influenciar
escolhas políticas, comprometer reputações, ameaçar a saúde pública ou
desestabilizar processos democráticos.
Nesse cenário,
a noção de “pós-verdade” tornou-se central. A realidade objetiva perdeu terreno
diante de narrativas moldadas por crenças prévias e interpretações subjetivas.
Importa menos o que de fato ocorreu e mais o que se decide acreditar. O termo post-truth, eleito “palavra do ano” em 2016 pelo Oxford Dictionaries[2],
captura esse deslocamento cognitivo no qual os julgamentos passam a se orientar
por convicções pessoais, enquanto as evidências empíricas que permitem
verificar os fatos são relegadas a segundo plano ou até inteiramente
desprezadas.
A pós-verdade
não equivale ao relativismo filosófico, que discute as condições do
conhecimento, nem à sofística, que explorava os recursos da retórica. Trata-se,
antes, de uma degradação da esfera pública, marcada pela rejeição deliberada de
evidências e pela adesão automática a crenças prévias. O resultado é um
ambiente polarizado, impermeável a correções e propenso à disseminação de
falsidades, no qual até evidências robustas e verificáveis são sumariamente classificadas
como “fake news”.
A expressão
“fatos alternativos”, usada por uma conselheira de Donald Trump em 2017 para
defender uma declaração manifestamente falsa, tornou-se emblemática desse
fenômeno.[3]
A referência remete imediatamente à distopia de George Orwell (2004) descrita
no livro “1984”, em que a manipulação da linguagem e o “duplipensar”
criavam uma realidade moldada pelo poder.[4]
Mas fatos não se confundem com versões ou opiniões; são acontecimentos
verificáveis, passíveis de demonstração e refutação. A distinção entre fato e
opinião é condição mínima para o debate democrático. Como já se observou em
formulação célebre, “todos têm direito às próprias opiniões, mas não aos
próprios fatos” (Moynihan, 2010, p. 2).[5]
Para além da
pós-verdade, o debate contemporâneo ganhou precisão com a tipologia proposta
por Wardle e Derakhshan
(2018, p. 43) no relatório “Information Disorder”, do Conselho da Europa. Essa classificação
diferencia misinformation, disinformation
e mal-information. A misinformation
abrange erros, enganos e conteúdos imprecisos difundidos sem intenção
maliciosa, embora possa gerar efeitos nocivos. A disinformation
envolve falsidades deliberadamente produzidas para manipular, confundir ou
causar dano, combinando, muitas vezes, elementos verdadeiros e falsos. Já a mal-information refere-se ao uso abusivo de
informações verdadeiras, apresentadas de modo a provocar danos, como a divulgação
indevida de dados pessoais, de contextos distorcidos ou de fatos selecionados
para criar percepções enganosas.
Essas
categorias, longe de serem estanques, frequentemente se sobrepõem. Uma
informação inicialmente divulgada por engano pode tornar-se desinformação
quando alguém passa a compartilhá-la de forma intencional, sabendo que é falsa.
A utilidade dessa classificação está em possibilitar respostas jurídicas
proporcionais e adequadas à natureza do conteúdo e ao grau de intenção
envolvido.
A literatura descreve ainda diversas
modalidades de falsidade informativa, que compõem uma taxonomia mais detalhada.
O “conteúdo fabricado” constitui a forma mais extrema: notícias inteiramente
inventadas, documentos forjados e narrativas completamente fictícias. O caso “Pizzagate”, nas eleições americanas de 2016, tornou-se um
exemplo paradigmático. A partir de publicações falsas que alegavam a existência
de uma rede de pedofilia operada a partir de uma pizzaria em Washington,
milhares de usuários passaram a difundir a história como se fosse verdadeira. A
narrativa teve tamanho alcance que levou um homem armado a invadir o
estabelecimento, acreditando que libertaria crianças mantidas em cativeiro. O
episódio mostra como uma ficção completa pode gerar comportamentos de risco,
mobilizar pânico moral e produzir efeitos concretos no mundo real.
As deepfakes, por sua vez, utilizam técnicas avançadas
de inteligência artificial para produzir vídeos e áudios falsos, com aparência
de autenticidade, e já foram empregadas para fins de desinformação política e
difamação, como nos vídeos adulterados que simulam falas de candidatos ou
autoridades.
O “conteúdo
manipulado” parte de material autêntico, mas altera seu sentido por edições,
montagens ou recortes seletivos. Abrange desde intervenções relativamente
simples, como a edição seletiva de trechos de uma fala para alterar seu
significado, até montagens fotográficas que inserem uma pessoa em um ambiente
em que nunca esteve.
As shallowfakes, manipulações rudimentares que exploram
elementos autênticos, como vídeos acelerados, desacelerações, cortes bruscos ou
alterações simples de imagem, alcançam grande circulação porque a presença de
material real confere veracidade ao conteúdo.
O “conteúdo
impostor” falsifica a autoria ou a procedência, explorando a credibilidade de
veículos ou instituições. Nessa categoria, incluem-se perfis falsos que se
passam por órgãos oficiais ou por documentos forjados com aparência
burocrática.
O “falso
contexto” apresenta material verdadeiro em circunstâncias enganosas, como
fotografias de protestos antigos divulgadas como se fossem recentes. O conteúdo
enganoso utiliza fatos de forma parcial ou distorcida, manipulando aspectos de
enquadramento para induzir interpretações equivocadas.
A “falsa
conexão” decorre da discrepância entre manchete e conteúdo, fenômeno
amplificado pelo clickbait, que explora
títulos sensacionalistas para gerar tráfego.
Há ainda
modalidades que orbitam a fronteira entre o humor e a falsidade. A “sátira” ou “paródia”,
embora não constitua, em si, desinformação, pode ser interpretada como
verdadeira quando retirada de contexto. Em ambientes hiperacelerados,
conteúdos de sites como o “The Onion” ou o “Sensacionalista”
circulam como notícias reais, alimentando confusões.
A “propaganda”,
forma antiga de comunicação persuasiva, torna-se desinformativa
quando utiliza dados distorcidos ou meias-verdades para reforçar narrativas
políticas, o que é comum tanto em regimes autoritários quanto em campanhas
eleitorais democráticas. A publicidade disfarçada de jornalismo, ainda que não
envolva falsidade, corrói a fronteira entre informação e propaganda,
contribuindo para a erosão da confiança nos veículos tradicionais e diluindo a
transparência necessária à formação de escolhas bem fundamentadas.
Consideradas em
conjunto, essas modalidades revelam a amplitude e a complexidade do ecossistema
da falsidade informativa. Elas exploram vulnerabilidades cognitivas, emocionais
e sociais, potencializadas por ambientes digitais que privilegiam rapidez,
impacto e senso de pertencimento, em detrimento da verificação e da reflexão
crítica (Fallis, 2015; Jack, 2017).
2 PSICOLOGIA E
COGNIÇÃO DA DESINFORMAÇÃO
A facilidade com que acreditamos em
informações falsas não resulta de simples ingenuidade, mas de predisposições
cognitivas e sociais profundamente enraizadas. Desde cedo, aprendemos a confiar
no que nos é dito. A vida em sociedade exige um mínimo de confiança recíproca.
Se cada afirmação precisasse ser verificada exaustivamente, a convivência se
tornaria inviável. Essa confiança confere fluidez à comunicação, mas também
abre espaço para a circulação de mensagens falsas sem barreiras iniciais de
desconfiança.
A psicologia cognitiva denomina esse
modo automático de confiar na veracidade das mensagens e das manifestações como
“viés da presunção de verdade” (truth-default
bias) (Levine, 2019). Em regra, partimos do pressuposto de que a
comunicação é honesta. A maior parte das interações humanas, de fato, é
sincera, o que torna esse viés funcional. O problema é que o mesmo mecanismo
que sustenta a cooperação social torna a mente mais permeável à desinformação (Sunstein, 2021, p. 73).
Esse quadro articula-se com o modelo
dos “dois sistemas de pensamento” descrito por Daniel Kahneman (2011, p. 29). O
chamado “Sistema 1” opera de forma automática e rápida, com pouco esforço e sem
controle consciente; o “Sistema 2” exige atenção, esforço mental e
concentração. Embora gostemos de imaginar que decidimos com base no Sistema 2,
refletido e analítico, a maior parte de nossos julgamentos cotidianos nasce do
Sistema 1, que se apoia em impressões, emoções e atalhos mentais.[6]
É nesse terreno, de pensamento rápido e pouco vigilante, que a desinformação
prospera. Notícias falsas são muitas vezes compartilhadas após a leitura
apressada de um título ou de um resumo, sem qualquer exame cuidadoso do
conteúdo.
Além disso, funcionamos sob uma espécie
de “miopia metacognitiva” (Pantazi;
Klein; Kissine, 2020). Tendemos a dar mais peso à
primeira informação recebida do que às correções posteriores. A metainformação, isto é, a informação de que determinada mensagem
ou notícia é falsa, exige esforço adicional, que muitos não estão dispostos a
realizar. Isso explica por que boatos sobre supostos riscos das vacinas mantêm
poder de convencimento mesmo depois de desmentidos repetidamente. A primeira
impressão, ainda que equivocada, tende a permanecer.
Esse conjunto de mecanismos cognitivos –
pensamento rápido, confiança automática e miopia metacognitiva
– não atinge apenas pessoas com baixa escolaridade. Médicos, acadêmicos,
juristas e profissionais altamente qualificados também já propagaram
desinformação sobre vacinas, mudanças climáticas e eleições. Keith Stanovich (2011) ajuda a esclarecer esse paradoxo ao
distinguir, no interior do Sistema 2, entre a “mente algorítmica” e a “mente
reflexiva”. A primeira refere-se a capacidades como raciocínio lógico, cálculo
e habilidades mensuradas por testes de QI. A segunda diz respeito à disposição
de questionar crenças, revisar julgamentos e submeter intuições a exame
crítico. Alguém pode ser intelectualmente brilhante, mas pouco reflexivo.
Nesses casos, a inteligência, quando acionada apenas pela “mente algorítmica”, pode
atuar na produção de justificativas sofisticadas, mas enganosas, destinadas a
sustentar preconceitos, crenças infundadas ou mesmo afirmações cuja falsidade o
indivíduo pressente, ainda que não a reconheça de modo plenamente consciente. Muitas
vezes, ele as repete por lealdade identitária, isto é, pelo compromisso
psicológico com o grupo ao qual pertence. Sem reflexividade, nem mesmo uma alta
capacidade cognitiva protege contra a desinformação.
A essa vulnerabilidade soma-se a
dinâmica descrita por Leon Festinger (1957) no
conceito de “dissonância cognitiva”. Quando nos deparamos com informações que
desafiam nossas crenças centrais, experimentamos um desconforto psicológico
significativo. Crenças políticas, religiosas ou morais que integram a
identidade social e pessoal do indivíduo são especialmente sensíveis, razão
pela qual a informação contrária é percebida como ameaça à coerência interna.
Para reduzir esse desconforto, a reação pode variar. Em alguns casos, ajustamos
nossas crenças ao aceitarmos a nova informação. Em outros, evitamos confrontos
e nos afastamos de fontes de informação divergentes. Há, ainda, a estratégia
mais frequente, que consiste em reinterpretar os fatos por meio de
racionalizações destinadas a preservar opiniões e convicções prévias. Essa
última estratégia decorre do “viés de confirmação”, que é a tendência a buscar,
valorizar e recordar com maior facilidade informações que reforçam crenças
anteriores, desconsiderando ou desqualificando evidências em sentido contrário.
Hugo Mercier
e Dan Sperber (2017; Mercier,
2020) argumentam que a razão humana evoluiu menos como instrumento individual
de busca da verdade e mais como faculdade social de argumentação. A razão teria
se desenvolvido para justificar crenças já formadas, produzir argumentos
capazes de convencer terceiros e avaliar argumentos alheios. Sob essa
perspectiva, o viés de confirmação deixa de ser uma anomalia e passa a ser uma
consequência previsível do modo como a razão opera em contextos sociais. Em
temas centrais para a identidade de grupos, como a política e a religião, essa
dinâmica se intensifica. A correção de uma crença não é vivida como
aprendizado, mas como uma ameaça ao vínculo com o grupo.
O viés de confirmação não atua
isoladamente, ele se intensifica em ambientes digitais que atuam como “câmaras de eco” (Quattrociocchi,
2016). Em grupos virtuais relativamente homogêneos, compostos por pessoas que
compartilham crenças, valores e identidades políticas semelhantes, informações
convergentes circulam com facilidade e recebem validação constante. No que diz
respeito a questões políticas, os membros do grupo acabam desenvolvendo uma
“visão de túnel”, tornando-se cegos às opiniões discordantes (Modgil; Singh; Gupta; Dennehy,
2024). Informações dissonantes são desqualificadas ou simplesmente descartadas.
Grupos antivacina e negacionistas
da pandemia da covid-19 ilustram essa dinâmica:
nesses ambientes, relatos anedóticos e teorias conspiratórias sobre vacinas adquiriram
o estatuto de verdades inquestionáveis, enquanto estudos científicos rigorosos
foram rotulados como manipulação.
A “homofilia”,
conceito central da sociologia das redes sociais, ajuda a compreender o padrão
de agregação que caracteriza muitos ambientes digitais. Trata-se da tendência
de nos aproximarmos de pessoas que compartilham valores, crenças e orientações
semelhantes às nossas. Em plataformas digitais, esse mecanismo espontâneo de
afinidade é ampliado pelos algoritmos, que reforçam conexões entre usuários com
perfis semelhantes. O resultado é a formação de bolhas informacionais
relativamente homogêneas, nas quais narrativas compartilhadas se reforçam
mutuamente e opiniões divergentes tendem a desaparecer ou a serem percebidas
como hostis (Recuero; Gruzd,
2019; Mcpherson; Smith-Lovin;
Cook, 2001).
As câmaras de eco não apenas reforçam
crenças já existentes, mas também favorecem a intensificação de posições. A “polarização
de grupo”, estudada pela psicologia social, mostra que, quando indivíduos com
opiniões parecidas debatem apenas entre si, tendem a adotar posições mais
extremas do que as que tinham inicialmente (Sunstein,
2017, p. 67). Nas redes sociais, isso se combina com algoritmos que premiam
conteúdos que geram engajamento emocional. Postagens mais intensas, indignadas
ou alarmistas circulam mais, o que empurra o discurso para posições cada vez
mais radicais.
Outra dimensão relevante diz respeito à
assimetria entre a velocidade da mentira e a da verdade. Estudo conduzido por
pesquisadores do MIT mostrou que notícias falsas circulam mais rápido e mais
longe do que as verdadeiras em plataformas como o Twitter (atual X) (Vosoughi; Roy; Aral, 2018). Há razões psicológicas e
sociológicas para essa diferença. A mentira costuma ser mais simples, mais
surpreendente e mais emocional do que a realidade, que, muitas vezes, é
complexa e exige explicações que dependem de nuances. Narrativas falsas
oferecem vilões claros, causas únicas e soluções aparentes. A verdade, por sua
vez, requer tempo, contexto e reconhecimento das incertezas. Em um ambiente
saturado de estímulos, esse contraste favorece o conteúdo enganoso.
Além disso, a desinformação explora
emoções intensas. Medo, indignação e repulsa aumentam a probabilidade de
compartilhamento. A exposição contínua a uma sobrecarga de informações produz o
que Byung-Chul Han (2016,
p. 74) identifica como Síndrome da Fadiga da Informação, estado em que a mente
perde a capacidade de selecionar, hierarquizar e distinguir o essencial do
acessório. Em vez de favorecer o esclarecimento, a enxurrada de informações
deforma o juízo, enfraquece a análise e reduz a disposição para verificar o
conteúdo das mensagens. O resultado é uma progressiva atrofia do pensamento
crítico, que leva as pessoas a reagir de maneira imediata e emocional, em vez
de refletida e ponderada.
A disseminação da desinformação também
se explica pelo “efeito em cascata”, que ocorre quando indivíduos, em
sequência, deixam de confiar em suas próprias percepções e passam a adotar a
opinião ou a conduta de terceiros. Em vez de avaliar criticamente a mensagem
recebida, orientam-se pela decisão já tomada por outros (Sunstein,
2017, p. 83). O fenômeno se aproxima da chamada “mentalidade de rebanho”, em
que comportamentos são imitados pelo desejo de pertencimento ou pelo medo de
isolamento. A diferença é que, na cascata informacional, há uma escolha
consciente de abandonar informações próprias para seguir as de terceiros, ainda
que persistam dúvidas quanto à sua consistência. Em ambos os casos, a autonomia
crítica é substituída pela conformidade (Çelen; Kariv, 2003; Dotey; Rom; Vaca, 2011).
Em comunidades homogêneas e densamente
conectadas, essas cascatas se somam à homofilia e às
câmaras de eco, de modo que a desinformação adquire aparência de consenso. O
indivíduo não acredita porque examinou as evidências, mas porque “todos ao seu
redor acreditam”. A validação social ocupa o lugar do exame crítico, conferindo
às falsidades estabilidade, resistência à correção e potencial de mobilização
política.
Em síntese, a psicologia e a cognição
da desinformação revelam que o problema vai muito além da produção e circulação
de conteúdos falsos. Ele está enraizado no modo como pensamos, sentimos, como nos
relacionamos em grupos e interagimos em ambientes digitais projetados para
maximizar o engajamento, não a veracidade. Compreender esses mecanismos
constitui condição indispensável para qualquer resposta jurídica e
institucional ao fenômeno.
3 ALGORITMOS E
O CONTROLE DO FLUXO INFORMACIONAL
A difusão da desinformação não decorre
apenas de predisposições cognitivas e mecanismos sociais de reforço. Ela também
se alimenta do modo como os algoritmos controlam o fluxo informacional nas
plataformas digitais. Motores de busca e redes sociais organizam esse fluxo com
base em sistemas que coletam e processam dados de navegação dos usuários, suas preferências
declaradas e interações anteriores, produzindo perfis detalhados que orientam o
que lhes será exibido.
Esses sistemas funcionam como “filtros
invisíveis” que controlam o que circula e o que é omitido do ambiente digital.
Ao identificarem padrões de comportamento, os algoritmos passam a destacar
conteúdos que confirmam os interesses e inclinações do usuário. Com o tempo,
elaboram modelos preditivos sobre quem somos e o que provavelmente desejaremos
ler, ver ou comprar (Zuboff, 2019). Esse mecanismo,
apresentado como vantagem por oferecer conveniência e foco, acaba por estreitar
o horizonte de informações acessíveis, reforçando crenças pré-existentes e
reduzindo o contato com perspectivas divergentes.
Esse processo é intensificado pelo
modelo econômico das plataformas digitais, estruturado na “economia da atenção”
(Wu, 2016). Conteúdos que despertam emoções intensas tendem a gerar mais
cliques, compartilhamentos, visualizações e tempo de permanência no ambiente
digital, o que aumenta sua visibilidade. Como reações emocionais fortes
costumam surgir de materiais polarizadores, escandalosos ou alarmistas, os
algoritmos priorizam exatamente esse tipo de conteúdo, no qual a desinformação
prospera. A lógica comercial dessas empresas, voltada a maximizar o
engajamento, reforça o problema de forma estrutural.
A personalização também opera por
ciclos de reforço. Quando o usuário interage com determinado tipo de mensagem,
a plataforma intensifica a entrega de conteúdos semelhantes, reduzindo
gradualmente a diversidade das informações disponíveis. Como consequência, o
repertório se torna cada vez mais homogêneo e previsível. Essa dinâmica produz
trajetórias informacionais distintas para indivíduos diferentes, que passam a habitar
espaços cognitivos parcialmente separados. A consequência é a criação de bolhas
de informação, resistentes a informações externas.
Eli Pariser
(2011) denominou esse fenômeno de “bolha de filtro”. Dentro dela, o indivíduo
tem a impressão de circular livremente, quando, na verdade, move-se em um
ambiente cuidadosamente modelado por escolhas algorítmicas. Conservadores
passam a receber, majoritariamente, conteúdos alinhados às suas posições;
progressistas, conteúdos progressistas; grupos religiosos, mensagens que
reforçam sua visão de mundo. A diversidade informativa se reduz, enquanto as
narrativas uniformes ganham força.
Esse
direcionamento ocorre sem qualquer transparência. Devido à “opacidade
algorítmica” (Pasquale, 2015), o usuário desconhece os critérios que definem o
que lhe é exibido e ignora quais conteúdos lhe são ocultados. Essa opacidade
dificulta a auditoria independente, impede a verificação da existência de
vieses estruturais e fragiliza a responsabilização das empresas por danos
causados por suas ferramentas de recomendação. Produz-se, assim, uma forma de “determinismo
informativo”, em que decisões fundamentais sobre o que se conhece e o que se
deixa de conhecer deixam de ser tomadas pelo indivíduo e passam a ser
determinadas por empresas privadas que controlam a infraestrutura
comunicacional.
Em síntese, os algoritmos não apenas
refletem preferências, mas também moldam realidades. Ao controlar o fluxo
informacional por meio do perfilamento algorítmico,
da formação de bolhas de filtro e de padrões de recomendação dirigidos, reduzem
a complexidade do debate público, fragmentam o espaço comum de referências e
favorecem a circulação de narrativas falsas entre audiências predispostas a
acolhê-las. O resultado é um ambiente em que a desinformação encontra terreno
fértil, pois alcança públicos segmentados, protegidos por filtros que excluem a
divergência e limitam o confronto crítico de ideias.
4 MENTIRA
POLÍTICA E CORROSÃO DEMOCRÁTICA
A mentira na política não é um fenômeno
recente. Hannah Arendt, em Verdade e
Política, observou que a verdade factual raramente convive em harmonia com
o exercício do poder. O que distingue a era digital é a escala inédita de
manipulação e o poder da desinformação de influenciar processos eleitorais,
alimentar polarizações e corroer os fundamentos da democracia.
A eleição presidencial dos Estados
Unidos em 2016 tornou-se o marco simbólico dessa inflexão. A vitória inesperada
de Donald Trump foi antecedida por uma avalanche de notícias fraudulentas,
parte delas destinada a atacar sua adversária Hillary Clinton. Falsidades como
a alegação de que Clinton teria vendido armas a grupos terroristas ou de que
lideraria uma rede de exploração sexual de crianças em uma pizzaria de
Washington, o chamado “Pizzagate”, ilustram o grau de
distorção atingido pelo debate público e a capacidade de teorias conspiratórias
de mobilizar condutas concretas. Também circularam boatos favoráveis a Trump,
como o suposto apoio do Papa à sua candidatura.[7]
O fenômeno, contudo, não se restringiu
aos Estados Unidos. A campanha do Brexit, em 2016, no
Reino Unido, foi marcada por teorias que atribuíam a imigrantes a
responsabilidade por crises econômicas e sociais (Parnell,
2024). Na França, as eleições presidenciais de 2022 também sofreram
interferência de campanhas de desinformação[8].
No Brasil, as eleições de 2018
tornaram-se um exemplo paradigmático do uso estratégico da mentira política. Uma
das narrativas mais conhecidas foi a do chamado “kit gay”, uma expressão
pejorativa criada para descrever supostos materiais pedagógicos impróprios que
nunca chegaram a existir. A acusação de que o então candidato Fernando Haddad
teria promovido a distribuição desses materiais quando Ministro da Educação foi
repetida em debates e entrevistas televisivas, tornando-se uma das fake news mais
influentes da campanha[9].
Ainda em relação às eleições de 2018 no Brasil, em plena campanha para o primeiro
turno, circulou um vídeo que mostrava um homem segurando uma mamadeira com o
bico em formato de pênis. No vídeo, o homem alegava, falsamente, que esse tipo
de mamadeira seria distribuído em creches se o candidato do Partido dos
Trabalhadores chegasse ao poder[10].
Notícias fraudulentas e bizarras, como essa, exploram medos morais profundos.
Por mais inverossímil que pareçam, mobilizam emoções intensas porque envolvem a
proteção de crianças e produzem sensação de pânico moral.
A desinformação eleitoral é
particularmente grave. Ela contamina a vontade do eleitor, compromete a
legitimidade do resultado e ameaça o próprio processo democrático. A mentira
política não é simples recurso retórico, mas prática corrosiva que abala a confiança
pública, distorce o debate e compromete a integridade das instituições. O
enfrentamento jurídico desse problema é inevitável, embora envolva dilemas
delicados. A responsabilização é necessária para coibir abusos, mas exige
cautela para que não resulte em censura ou perseguição política. O desafio
consiste em conciliar mecanismos de controle com a preservação da liberdade de
expressão, fundamento irrenunciável da democracia.
5 O DESAFIO DA
REGULAÇÃO DAS PLATAFORMAS DIGITAIS
Esse panorama revela que a regulação
das plataformas digitais se tornou uma questão central no mundo contemporâneo.
A visão inicial da internet como um espaço de liberdade ilimitada mostrou-se
insustentável diante dos abusos e da concentração de poder nas mãos de grandes
corporações tecnológicas. A pergunta já não é se devemos regular, mas como
fazê-lo de modo equilibrado.
Casos recentes ilustram a complexidade
do problema. A resistência do Telegram a cumprir
ordens judiciais no Brasil e a posterior ameaça de suspensão pelo Supremo
Tribunal Federal evidenciaram a dificuldade de aplicar a jurisdição nacional a
plataformas sem representação local. A decisão de Elon
Musk de fechar os escritórios da plataforma X no
país, interpretada como uma tentativa de evasão regulatória, levou à suspensão
provisória do serviço. Esses episódios revelam a tensão entre a soberania
estatal e o poder corporativo transnacional.
A experiência comparada mostra caminhos
distintos. A Alemanha inaugurou, em 2017, a NetzDG,
que impõe obrigações rigorosas às plataformas quanto à remoção célere de
conteúdos manifestamente ilícitos, já tipificados em lei, sob pena de multas
elevadas. A União Europeia avançou com o Digital Services Act
(DSA), que estabelece regras para moderação, transparência algorítmica e
deveres de diligência, e com o Digital Markets Act (DMA), voltado a limitar práticas monopolísticas de
grandes empresas tecnológicas.
No Brasil, o Marco Civil da Internet (Lei
nº 12.965/2014) e a Lei Geral de Proteção de Dados (Lei nº 13.709/2018) constituem
marcos relevantes, mas insuficientes para enfrentar a desinformação em larga
escala. O debate sobre o chamado “PL das Fake News”
revela tensões entre os riscos de censura e a necessidade de responsabilização.
Nesse contexto, o Supremo Tribunal
Federal, em junho de 2025, declarou parcialmente inconstitucional o artigo 19
do Marco Civil. Manteve a necessidade de ordem judicial como regra, mas
reconheceu exceções para casos objetivamente graves, como conteúdos
impulsionados por pagamento, ampla circulação de material ilícito ou situações
que envolvam atos antidemocráticos, terrorismo, discurso de ódio ou pornografia
infantil. Em tais hipóteses, a omissão das plataformas pode gerar
responsabilização mesmo na ausência de decisão prévia, aproximando o país de
modelos híbridos que articulam a intervenção judicial com deveres de resposta
rápida (Brasil, 2017a, 2017b).
Em agosto de 2025, o Senado aprovou o
Estatuto Digital da Criança e do Adolescente, reforçando a proteção de menores
no ambiente online. Apesar desses avanços, a autorregulação das plataformas
mostrou-se insuficiente. Empresas orientadas por modelos de negócios baseados
no engajamento e na monetização de dados raramente adotam medidas que comprometam
sua lucratividade. Por isso, alguns autores defendem modelos de autorregulação
supervisionada, que combinam a expertise técnica das plataformas com normas
públicas destinadas a assegurar transparência, proporcionalidade e proteção
efetiva dos direitos fundamentais.
A regulação das plataformas não exige a
escolha entre liberdade absoluta e controle rígido. O desafio real consiste em
encontrar um equilíbrio que permita enfrentar abusos sem comprometer a
liberdade de expressão. A preservação da democracia exige um ecossistema
informativo minimamente confiável, no qual a verdade factual não seja eclipsada
por campanhas coordenadas de desinformação e por assimetrias de poder entre
cidadãos e corporações transnacionais.
CONSIDERAÇÕES
FINAIS: LIBERDADE COM RESPONSABILIDADE
A internet ampliou significativamente
as possibilidades de comunicação e de participação pública, mas também se
tornou terreno fértil para campanhas coordenadas de manipulação, para a difusão
acelerada de conteúdos enganosos e para o acirramento de conflitos sociais.
Essa ambivalência expressa o problema central discutido ao longo do artigo:
como enfrentar a desinformação em larga escala sem comprometer a liberdade de
expressão nem fragilizar as bases da democracia.
As reflexões aqui desenvolvidas
confirmam a hipótese inicial de que não há solução única para o fenômeno. A
desinformação resulta da interação entre fatores psicológicos, sociais,
tecnológicos e políticos, e qualquer estratégia eficaz precisa reconhecer essa
complexidade.
O percurso analítico deste estudo
permitiu compreender essa articulação em diferentes níveis. Na primeira parte,
examinou-se a natureza multifacetada da falsidade informativa, que vai das
pequenas inverdades sociais à produção deliberada de conteúdos falsos, passando
por formas híbridas, como o conteúdo manipulado, o falso contexto e a mal-information. Na segunda parte, dedicada à
psicologia e à cognição, analisaram-se os mecanismos que tornam indivíduos e
grupos vulneráveis à desinformação, como o viés da presunção de verdade, a
prevalência do Sistema 1, a miopia metacognitiva, a
dissonância cognitiva, o viés de confirmação, as câmaras de eco, a polarização
algorítmica e o efeito cascata. A terceira parte abordou o papel dos algoritmos
no controle do fluxo informacional, destacando como bolhas de filtro, perfilamento e sistemas automatizados de recomendação
moldam ambientes informacionais segmentados. A quarta parte examinou a mentira
política e seus efeitos corrosivos sobre a democracia, revelando como campanhas
de desinformação influenciam processos eleitorais e ampliam polarizações. Por
fim, a quinta parte analisou os desafios regulatórios contemporâneos, mostrando
que enfrentar a desinformação exige lidar com tensões entre soberania estatal,
poder corporativo transnacional e proteção da liberdade de expressão.
Essas dimensões, quando consideradas em
conjunto, indicam que as respostas institucionais precisam ser integradas. As
plataformas digitais devem adotar práticas que desencorajem a amplificação de
conteúdos enganosos e aumentem a transparência sobre seus sistemas de
recomendação. Estados e instituições públicas devem agir de modo proporcional, com
base em critérios claros e evidências empíricas, evitando tanto a omissão, que
favorece abusos informacionais, quanto intervenções que possam ser
interpretadas como censura ou perseguição política. A educação midiática e
científica, especialmente entre jovens, é indispensável para formar cidadãos
capazes de avaliar criticamente informações em ambientes digitais saturados.
A democracia depende de um ecossistema
informativo minimamente confiável. Nenhuma sociedade se livra inteiramente de
boatos ou mentiras, mas é possível reduzir seus efeitos ao fortalecer
mecanismos institucionais, promover a cultura crítica e responsabilizar agentes
que se beneficiam da desinformação para fins políticos ou econômicos. Defender
a liberdade de expressão não implica tolerar práticas que distorcem o debate
público. Ao contrário, proteger a liberdade exige impedir que ela seja
instrumentalizada para gerar opacidade, confusão ou erosão institucional.
Consolidar uma política de “liberdade
com responsabilidade” significa reconhecer a complexidade do fenômeno, agir com
base em evidências e preservar as condições que tornam possível a convivência
democrática. O desafio é equilibrar a circulação livre de ideias com a
necessidade de impedir que a mentira, a manipulação e o ódio corroam os
fundamentos do espaço público. Esse compromisso deve orientar as sociedades que
buscam manter viva a promessa democrática em tempos de radicalização e
incerteza.
REFERÊNCIAS
ARENDT, Hannah. Verdade e política. In: ARENDT, Hannah. Entre o passado e o futuro. 8. ed. São
Paulo: Perspectiva, 2016.
BRASIL. Senado
Federal. Projeto de Lei nº 2.628, de 2022.
Dispõe sobre proteção integral de crianças e adolescentes no ambiente digital
(Estatuto Digital da Criança e do Adolescente). Brasília, DF: Senado, 2022.
Disponível em: https://share.google/3WBe6HCZ9KdILvzNp. Acesso em: 18
nov. 2025.
BRASIL. Supremo Tribunal Federal (2. Turma). Recursos Extraordinário nº 1.037.396/SP
(Tema 987). Direito processual civil e do trabalho. Liquidação /
Cumprimento / Execução. Obrigação de fazer / não fazer [...]. Recorrente: Facebook Serviços Online do Brasil
Ltda. Relator: Min. Dias Toffoli, julgado em 29 mar.
2017. Brasília, DF: Supremo Tribunal Federal, 2017a. Disponível em: https://portal.stf.jus.br/processos/detalhe.asp?incidente=5160549.
Acesso em: 18 nov. 2025.
BRASIL. Supremo Tribunal Federal (1. Turma). Recursos Extraordinário nº 1.057.258/ MG
(Tema 533). Direito do consumidor. Responsabilidade do fornecedor.
Indenização por dano moral. Recorrente: Google Brasil Internet Ltda. Relator:
Min. Luiz Fux, julgado em 27 jun. 2017. Brasília, DF: Supremo Tribunal Federal,
2017b. Disponível em: https://portal.stf.jus.br/processos/detalhe.asp?incidente=5217273. Acesso em: 18 nov. 2025.
ÇELEN, Bogaçhan; KARIV, Shachar. Distinguishing
informational cascades from herd behavior in the laboratory. Econometrics Laboratory, Berkeley,
CA, 22 out. 2003. Disponível em: https://eml.berkeley.edu/~kariv/CK_II.pdf.
Acesso em: 18 nov. 2025.
COELHO, Gabriela. Ministro do TSE determina remoção de
vídeos sobre “kit gay”. Consultor
Jurídico, São Paulo, 16 out. 2018. Disponível em: https://www.conjur.com.br/2018-out-16/ministro-tse-determina-remocao-videos-kit-gay/. Acesso em: 11 nov. 2022.
COLEMAN,
Alistair. French election: misinformation targets candidates and voting system.
BBC, London,
22 abr. 2022. Disponível em: https://www.bbc.com/news/61179620. Acesso em: 17 nov. 2025.
DOTEY, Andrew;
ROM, Hassan; VACA, Carmen. Information diffusion in social media. Stanford University, Stanford,
CA, 11 dez. 2011. Disponível em: https://snap.stanford.edu/class/cs224w-2011/proj/mrom_Finalwriteup_v1.pdf.
Acesso em: 10 nov. 2022.
FALLIS, Don.
What is Disinformation? Library Trends, [s.l.], v. 63, n.
3, p. 401-426, 2015.
FESTINGER, Leo.
A theory of cognitive dissonance. Stanford:
Stanford University Press, 1957.
FRANCE,
Anatole. La vie en fleur. Paris: Calmann-Lévy, 1922.
JACK, Caroline.
Lexicon of Lies: Terms for Problematic Information. New York: Data &
Society Research Institute, 2017.
KAHNEMAN,
Daniel. Rápido e devagar. Rio de
Janeiro: Objetiva, 2011.
HAN, Byung-Chul. No enxame:
reflexões sobre o digital. Lisboa: Relógio D´Água, 2016.
LEVINE, Timothy
R. DUPED: truth-default theory and
the social science of lying and deception. University Alabama Press, 2019.
MCPHERSON, M.;
SMITH-LOVIN, L.; COOK, J. M. Birds of a feather: Homophily in social networks. Annual
Review of Sociology, San Mateo, CA, v. 27, n. 1, p. 415–444,
2001. Disponível em: https://www.annualreviews.org/content/journals/10.1146/annurev.soc.27.1.415. Acesso em: 17 nov. 2025.
MERCIER, Hugo. Not
Born Yesterday: The Science of Who We Trust and What We Believe. Princeton:
Princeton University Press, 2020.
MERCIER, Hugo;
SPERBER, Dan. The Enigma of Reason: A New Theory of Human Understanding.
Cambridge: Harvard University Press, 2017.
MILL, John Stuart. Sobre a Liberdade.
Tradução de Pedro Madeira. Lisboa: Edições 70, 2016.
MODGIL, Sachin; SINGH, Rohit Kumar; GUPTA, Shivam; e DENNEHY, Denis. A confirmation bias view
on social media induced polarisation during Covid-19. Information Systems Frontiers,
Heidelberg, DE, v. 26, n. 2, p. 417-441, 2024. Disponível em: https://link.springer.com/content/pdf/10.1007/s10796-021-10222-9.pdf.
Acesso em: 11 nov. 2022.
MOYNIHAN, Daniel Patrick. Daniel Patrick Moynihan: a portrait in letters of an american visionary. New York: PublicAffairs,
2010. Introdução, p. 2.
ORWELL, George. 1984. Tradução de Wilson Velloso.
29. ed. São Paulo: Companhia Editora Nacional, 2004.
PANTAZI, Myrto; KLEIN, Olivier; KISSINE, Mikhail. Is Justice Blind
or Myopic? Judgement & Decision
Making, Cambridge, UK, v. 15, n. 2, p. 214-229, mar. 2020.
PARISIER, Eli. O filtro
invisível: o que
a internet está escondendo de você. Rio de
Janeiro: Zahar, 2011.
PARNELL,
Tamsin. “Brexit and Disinformation”. In: MACI, Stefania et al. The
Routledge Handbook of Discourse and Disinformation. London: Routledge,
2024.
PASQUALE,
Frank. The black box society:
the secret algorithms that control money and information. Cambridge:
Harvard University Press, 2015.
POST-TRUTH. In: OXFORD Dictionaries: word of the
year 2016. Oxford: Oxford University Press, 2016. Disponível
em: https://languages.oup.com/word-of-the-year/2016/. Acesso
em: 19 set. 2025.
QUATTROCIOCCHI,
Walter. How does misinformation spread online? World Economic Forum, Cologny, GB, 14 jan. 2016. Disponível em: https://www.weforum.org/stories/2016/01/q-a-walter-quattrociocchi-digital-wildfires/.
Acesso em: 11 nov. 2022.
RECUERO, Raquel; GRUZD, Anatolyi. Cascatas
de fake news políticas: um
estudo de caso no Twitter. Galaxia, São Paulo, n. 41, p. 31-47, maio/ago. 2019. Disponível
em: https://www.scielo.br/j/gal/a/Kvxg4btPzLYdxXk77rGrmJS/?lang=pt&format=pdf.
Acesso em: 10 nov. 2022.
RITCHIE,
Hannah. Read all about it: the biggest fake news stories of 2016. CNBC, Englewood
Cliffs, NJ, 30 dez. 2016. Disponível em: https://www.cnbc.com/2016/12/30/read-all-about-it-the-biggest-fake-news-stories-of-2016.html.
Acesso em: 11 nov. 2022.
RODRIGUES, Henrique. Mamadeira de piroca: perfis que
espalharam boato em 2018 seguem atuando contra o PT. Revista Fórum, [s.l.], 25 ago. 2022. Disponível em: https://revistaforum.com.br/politica/2022/8/25/mamadeira-de-piroca-perfis-que-espalharam-boato-em-2018-seguem-atuando-contra-pt-122234.html. Acesso em: 10 nov. 2022.
STANOVICH,
Keith Stanovich; WEST, Richard. Individual differences in reasoning: implications
for the rationality debate. Behavioral and Brain Sciences, Cambridge,
n. 23, p. 645-65, 2000.
STANOVICH,
Keith E. Rationality and the Reflective Mind. Oxford: Oxford
University Press, 2011.
SUNSTEIN, Cass.
Conformity: the power of social
influences. New York: New York University Press, 2019.
SUNSTEIN, Cass
R. Liars: falsehoods and free speech
in an age of deception. Oxford: Oxford University
Press, 2021.
SUNSTEIN, Cass.
#Republic: divided democracy in the age
of social media. Princeton: Princeton University Press, 2017.
TVERSKY, Amos;
KAHNEMAN, Daniel. Judgment under uncertainty: heuristics and biases. Science, [s.l.], v. 185, n.
4157, p. 1124-1131, 1974.
VOSOUGHI,
Soroush; ROY, Deb; ARAL, Sinan. The spread of true and false news online. Science,
Washington, DC, v. 359, n. 6380, p. 1146-1151, 9 mar. 2018. Disponível em: https://science.sciencemag.org/content/359/6380/1146.
Acesso em: 10 nov. 2022.
WARDLE, Claire;
DERAKHSHAN, Hossein. Thinking about ‘information disorder’: formats of
misinformation, disinformation, and mal-information. In: IRETON, Cherilyn; POSETTI, Julie. Journalism, fake news and disinformation. Paris:
UNESCO, 2018. Disponível em:
https://bibliotecadigital.tse.jus.br/xmlui/bitstream/handle/bdtse/6339/2018_ireton_journalism_fake_news.pdf?sequence=1&isAllowed=y.
Acesso em: 10 nov. 2022.
WU, Tim. The
attention merchants: the
epic scramble to get inside our heads. New York: Knopf, 2016.
ZUBOFF, Shoshana. The age of surveillance
capitalism: the fight
for a human future at the new frontier of power. New York: PublicAffairs, 2019.
* Doutor em Direito pela Universidade Estácio de Sá. Research Affiliate of the Rule of Law Working Group of CEU Democracy Institute. Professor do Programa de Pós-Graduação da UNESA. Desembargador do Tribunal de Justiça do Estado do Rio de Janeiro.
[1] Texto original: “J’aime la vérité. Je crois que l’humanité
en a besoin; mais elle a bien plus
grand besoin encore du mensonge qui
la flatte, la console, lui donne des espérances
infinies. Sans le mensonge, elle
périrait de désespoir et d’ennui.”
[2] Definido como “circumstances in which objective facts are less
influential in shaping public opinion than appeals to emotion and personal
belief”.
[3] Em 22 de janeiro de 2017, Kellyanne Conway, conselheira do então presidente dos Estados Unidos, Donald Trump, defendeu, em entrevista televisiva, a declaração falsa do porta-voz da Casa Branca, segundo a qual a cerimônia de posse presidencial daquele ano teria reunido o maior público da história. Questionada sobre a evidente falsidade da afirmação, Conway respondeu que o porta-voz havia apresentado “fatos alternativos” (alternative facts). A expressão tornou-se emblemática da lógica da pós-verdade ao sugerir que dados objetivos e verificáveis poderiam ser tratados como meras versões concorrentes da realidade.
[4] Na sociedade ficcional descrita no romance, a “novilíngua” (newspeak) corrompia o significado das palavras, enquanto o “duplipensar” (doublethink) permitia a negação consciente da realidade objetiva, combinando a mentira deliberada com a crença obstinada em sua veracidade.
[5] A frase é atribuída
ao político e diplomata americano Daniel Patrick Moynihan: “Everyone is
entitled to his own opinion, but not to his own facts.”
[6] Essa dualidade já havia sido
observada em diferentes estudos, mas foi a partir do trabalho de Keith Stanovich e Richard West que ela recebeu uma formulação
mais precisa, com a proposta dos termos Sistema 1 e Sistema 2.
Daniel Kahneman, reconhecendo essa contribuição, incorporou a terminologia e a
tornou amplamente conhecida em seu livro Rápido e Devagar, no qual
sintetiza, com base em décadas de pesquisas realizadas em parceria com Amos Tversky, os mecanismos que regem esses dois sistemas de
pensamento.
[7] A respeito dessas fake news, ver
matéria da CNBC. Disponível em: https://www.cnbc.com/2016/12/30/read-all-about-it-the-biggest-fake-news-stories-of-2016.html.
Acesso em: 11 nov. 2022.
[8] Ver site da BBC: French election: misinformation targets candidates and voting system. Disponível em: https://www.bbc.com/news/61179620. Acesso em 17 nov. 2025.
[9] Veja-se, a respeito, matéria publicada no CONJUR. Disponível
em:
https://www.conjur.com.br/2018-out-16/ministro-tse-determina-remocao-videos-kit-gay.
Acesso em: 11 nov. 2022.
[10] Sobre o vídeo, veja-se a matéria do Fórum. Disponível em:
https://revistaforum.com.br/politica/2022/8/25/mamadeira-de-piroca-perfis-que-espalharam-boato-em-2018-seguem-atuando-contra-pt-122234.html.
Acesso em: 10 nov. 2022.