Cibersegurança, Desinformação e Proteção ao Usuário: Uma Visão Sociotécnica em um Mundo Hiperconectado

Cibersegurança, Desinformação e Proteção ao Usuário: Uma Visão Sociotécnica em um Mundo Hiperconectado

Vivemos em um mundo hiperconectado onde  a cibersegurança transcende a mera proteção de sistemas e dados. É essencial proteger os usuários de ameaças que manipulam informações e influenciam comportamentos. A recente catástrofe climática no Rio Grande do Sul serve como um lembrete gritante do poder da desinformação digital [1]. Essas desinformações colocam as pessoas em risco, prejudicam a credibilidade dos que estão genuinamente ajudando, dificultam o auxílio aos mais necessitados, podendo, em casos extremos, custar vidas. Este artigo apresenta uma visão sociotécnica dos tipos mais comuns de desinformação e discute a relevância de abordar esse fenômeno como um problema multifacetado, que transcende os limites da tecnologia. 

Desinformação: Um Labirinto de Enganos na Era Digital

A desinformação se manifesta de duas formas principais: deliberada e acidental. Cada tipo possui características e impactos distintos.

Figura 1 – Um centro de controle de uma campanha desinformativa. Fonte: Dall-E 

A desinformação deliberada é cuidadosamente planejada para enganar e manipular [2]. Seus criadores podem realizar pesquisas detalhadas sobre a audiência-alvo, mapeando seus valores, crenças, hábitos online e tecnologias que utilizam. Essa inteligência permite moldar mensagens falsas que ressoam com os medos e desejos do público, utilizando os canais de comunicação que mais frequentam e explorando as limitações que a tecnologia impõe na qualidade de comunicação [3]. Essa estratégia torna a desinformação deliberada altamente consumível e extremamente eficaz na manipulação de opiniões e comportamentos. Exemplos incluem campanhas difamatórias contra indivíduos ou grupos [5], ataques de phishing e personificação que exploram a confiança das vítimas para fins financeiros ou estratégicos [3].

Em 2023, cibercriminosos usaram perfis falsos no LinkedIn para atrair vítimas com ofertas de emprego fictícias [18]. Eles se passavam por recrutadores de empresas legítimas e enviavam e-mails fraudulentos solicitando informações pessoais e pagamentos para supostos processos de seleção. Essas ações não só roubavam dados pessoais, mas também exploravam financeiramente as vítimas, aumentando a confiança pelo uso de uma plataforma profissional respeitável.

Figura 2 – Representação ilustrativa de um usuário navegando em um universo de deseinformções. Fonte: Dall-E

Em contraste, a desinformação acidental ocorre sem a intenção de enganar [2]. Geralmente, ela é resultado de erros de comunicação, interpretação incorreta de fatos ou jornalismo de baixa qualidade. Isso inclui a falta de verificação de fatos [3], interpretação errônea de informações ou a simples propagação inadvertida de notícias falsas [4].

Em um caso recente, uma influenciadora no Instagram afirmou que cada cor de detergente tem um uso específico, sugerindo, por exemplo, que o detergente verde poderia ser usado para lavar o rosto [19]. Essa afirmação não tem base científica e foi feita em um contexto de humor ou desinformação. O vídeo da influenciadora foi amplamente compartilhado e interpretado literalmente por muitas pessoas, levando algumas a realmente tentar usar detergentes coloridos para finalidades inadequadas, como higiene pessoal.

Navegando na Desinformação: Um Guia para os Tipos Mais Comuns

No mundo digital de hoje, onde a informação flui livremente e a linha entre o real e o virtual se torna cada vez mais tênue, a desinformação se apresenta como um desafio crescente. Compreender as diferentes formas que ela assume é crucial para combatê-la e proteger os usuários de seus efeitos nocivos.

Este guia oferece uma visão aprofundada dos tipos mais comuns de desinformação digital, explorando suas características, motivações, impactos e estratégias para combatê-las.

Rumores

Os rumores se configuram como informações não verificadas que circulam sem uma fonte clara ou confirmada[4]. Frequentemente surgem em situações de incerteza ou são deliberadamente criados para gerar confusão ou pânico. Sua natureza volátil e capacidade de se propagar rapidamente, especialmente nas redes sociais, os tornam ferramentas perigosas para a desinformação. 

Figura 3 – Representação de rumores (fofoca). Exemplos digitais encaminhamento de mensagens ou prints em redes sociais, mudando o seu contexto original. Fonte: Dall-E.

Um exemplo de desinformação do tipo rumor originado de uma situação de incerteza ocorreu durante as enchentes no Rio Grande do Sul, quando falsas orientações circularam online, afirmando que as vítimas deveriam se cadastrar na Defesa Civil para receber ajuda (Figura 4). Esse tipo de rumor pode gerar confusão, sobrecarregar serviços de emergência e atrasar a assistência efetiva às vítimas, prejudicando a coordenação dos esforços de ajuda e desviando recursos de onde são mais necessários​​. 

Figura 4 – Print de um vídeo do WhatsApp onde homem orienta as vitimas das enchentes no RS a se cadastrarem na Defesa Civil. Fonte: AosFatos.

As características intrínsecas das redes sociais e a viralidade desse conteúdo podem levar a consequências mais sérias. À medida que o conteúdo se propaga, ele pode ser alterado, e as opiniões expressas pelos criadores podem sair de contexto, sendo interpretadas de maneira séria por outras audiências. Essa transformação e recontextualização podem amplificar desinformações e gerar impactos significativos na percepção pública e na reputação dos envolvidos [3].

Mecanismos Sociotécnicos:

  1. Algoritmos e Bolhas de Informação
  • Filtros-bolha: Algoritmos expõem os usuários apenas a conteúdos que confirmam suas crenças, facilitando a proliferação de rumores [8].
  • Recomendações direcionadas: Algoritmos amplificam a exposição a rumores já presentes na rede social do usuário [8].
  1. Facilidade de Compartilhamento e Viralização
  • Redes sociais e plataformas de comunicação instantânea: O compartilhamento rápido e massivo facilita a propagação de rumores sem tempo para verificação[3].
  • Botões de “compartilhar” e “curtir”: Impulsionam a disseminação de rumores por engajamento e busca por “likes”[3].
  1. Falta de Transparência e Autenticação
  • Anonimato e pseudonimato: Facilitam a disseminação de rumores sem responsabilização, pois a identidade do autor fica oculta[3].
  • Dificuldade na verificação da origem: Dificulta a identificação de rumores e a responsabilização dos autores [3].
  1. Exploração de Vulnerabilidades Humanas
  • Ansiedade e busca por informações: Em situações de incerteza, as pessoas tendem a acreditar em rumores que oferecem respostas imediatas [4].
  • Emoções e vieses cognitivos: Rumores apelam para emoções e exploram vieses para aumentar sua credibilidade e viralização [3]. Alguns exemplos de vieses que podem impactar na criação, difusão, consumo e transformação dos rumores são [4]:
    • Viés de Confirmação: A tendência de procurar, interpretar e lembrar informações que confirmam crenças pré-existentes. As pessoas são mais propensas a acreditar e compartilhar rumores que se alinham com suas opiniões ou preconceitos existentes.
    • Viés de Ancoragem: A tendência de depender da primeira informação recebida (a “âncora”) ao tomar decisões. Se a primeira informação que alguém recebe sobre um tópico é um rumor, essa pessoa pode continuar a basear suas percepções de veracidade subsequentes sobre essa informação, mesmo quando apresentada com evidências contrárias.
    • Efeito de Veracidade Ilusória: A tendência crer na veracidade de informações repetidas frequentemente. Rumores repetidos várias vezes, mesmo que falsos, podem ser percebidos como verdadeiros devido à familiaridade.
    • Viés de Disponibilidade:A tendência de julgar a probabilidade de eventos com base na facilidade com que exemplos vêm à mente.  Rumores que são vívidos ou emocionantes são mais facilmente lembrados e, portanto, mais propensos a serem considerados verdadeiros e compartilhados.
    • Viés de Negatividade: A tendência de dar mais peso às informações negativas do que às positivas. Rumores com conotações negativas são mais propensos a ser acreditados e compartilhados do que os positivos.

Farsas

As farsas se caracterizam como formas deliberadas de desinformação, cuidadosamente elaboradas para enganar e manipular[4]. Explorando vulnerabilidades cognitivas como vieses e falácias lógicas, assumem a aparência de conteúdo autêntico, muitas vezes imitando aspectos técnicos da identidade de fontes confiáveis ou figuras de autoridade, como a diagramação do conteúdo ou usando logos e cores representativas[4]. Elas visam explorar as crenças, expectativas, interesses e desejos do público-alvo, induzindo-o a aceitar e consumir informações falsas como verdadeiras[4]. São utilizadas em diversos contextos, desde a difamação de indivíduos [5] até a desinformação política [20] e golpes digitais [18].

Um exemplo notório de “farsa” utilizada em golpes cibernéticos de spear phishing ocorreu em julho de 2020, quando o Twitter sofreu um ataque significativo. Hackers utilizaram técnicas de phishing para enganar funcionários da empresa, obtendo acesso a contas de alto perfil. Os invasores enviaram mensagens fraudulentas para obter credenciais de login, que foram usadas para acessar sistemas internos e comprometer contas verificadas. Esse incidente destaca como farsas bem executadas podem levar a brechas de segurança em grandes plataformas digitais​ (Reuters)​.

Mecanismos Sociotécnicos

  1. Aparência autêntica: Imitam o estilo e formato de fontes confiáveis, como sites de empresas ou perfis de mídia social[4]. Usam elementos de credibilidade como assinaturas, marcas d’agua, imagens que representam autoridade, simbolos tipicos de segurança, selos, etc[4]. 
  2. Exploração de vieses cognitivos: Utilizam falácias lógicas e apelos emocionais para manipular o público-alvo. A Engenharia Social, por exemplo, é a manipulação psicológica para induzir vítimas a divulgar informações sensíveis.
  1. Falta de Transparência e Autenticação: Dificuldade na verificação da origem: Dificulta a identificação de rumores e a responsabilização dos autores [4].
  1. Manipulação Tecnológica e Enganação:
  • Deepfakes: Criação de conteúdo falso altamente convincente, dificultando a distinção entre o real e o falso [4].
  • Bots e contas falsas: Amplificam a visibilidade de rumores, criam ilusão de apoio popular e influenciam a opinião pública [4].
  • Tecnologia Avançada: O uso de IA e machine learning para personalizar ataques, tornando-os mais convincentes e difíceis de detectar.
  • Redes Sociais: Plataformas como LinkedIn e Twitter fornecem dados pessoais que facilitam a criação de mensagens enganosas.
  1. Facilidade de Comunicação: as redes sociais e plataformas de mensagens facilitam a comunicação não solicitada, sendo um canal de comunicação de fácil utilização para quem cria farsas [4].

Notícias Falsas (Fake News)

As notícias falsas, ou fake news, representam um subtipo de farsa, referindo-se à criação deliberada de conteúdo falso com o objetivo de enganar e desinformar o público [4]. Visam manipular opiniões, promover agendas políticas ou ideológicas (Uol), ou simplesmente gerar receita através de cliques em websites.

Figura 5  – Exemplo de caso de notícia falsa. Fonte: Aos Fatos.

Um exemplo de “fake news” que circulou recentemente envolveu alegações falsas sobre caminhões carregados de doações sendo barrados em postos fiscais no Rio Grande do Sul. De acordo com reportagens do SBT (SBT.a e SBT.b), estes veículos estariam sendo impedidos de prosseguir viagem por não apresentarem notas fiscais das doações. A desinformação ganhou força nas redes sociais, onde foi amplamente compartilhada. No entanto, verificações de fatos (Aos Fatos e Estadão) revelaram que não houve nenhuma ação oficial que impedisse o transporte de doações. As autoridades esclareceram que os veículos com doações não estavam sendo barrados, e que a fiscalização tinha sido suspensa para facilitar o transporte de ajuda às áreas afetadas pela enchente. A falsa narrativa alimentou confusão e desinformação em um momento crítico de resposta a uma catástrofe natural.

Mecanismos Sociotécnicos

  1. Aparência autêntica
  • Imitam o estilo e formato de veículos de imprensa respeitáveis para parecerem confiáveis. Copiam a diagramação típica de noticias e manchetes [4]. 
  • Utilizam cores e simbolos representativos de veiculos de comunicação reconhecidos [4].
  • Usam elementos de enfase para direcionar a atenção, como títulos e subtítulos, tamanho da fonte, negrito, listas de itens, etc [4].
  1. Conteúdo sensacionalista
  • Empregam manchetes chamativas e imagens impactantes para atrair atenção e engajamento [4]. 
  • Usam elementos de enfase para direcionar a atenção, como titulos e subtitulos, tamanho da fonte, negrito, listas de itens, etc [4].
  1. Distorção de fatos
  •  Manipulam informações e dados para se adequar a uma narrativa específica [4].
  1. Manipulação Tecnológica e Enganação
  • Exploram os canais de comunicaçao tipicos, como redes de sites recem criados que se dizem jornalisticos, microblogs e influenciadores digitais [4]. 

Impactos:

  • Erosão da confiança nas instituições: Levam à perda de confiança em veículos de imprensa, autoridades e outros setores da sociedade.
  • Polarização social: Exacerbam divisões e conflitos entre grupos com diferentes visões de mundo.
  • Tomada de decisões equivocadas: Podem induzir pessoas a tomar decisões erradas com base em informações falsas.

Besteirada (Bullshit)

Inspirado pela análise de Harry Frankfurt sobre o conceito de “bullshit”[6], a besteirada, ou bullshit, se caracteriza por algo mais do que apenas falsidade ou imprecisão do conteúdo (Figura 6). Ela é definida pela intenção deliberada de obscurecer, impressionar ou manipular, sem qualquer consideração pela veracidade das informações[6]. Este tipo de desinformação se distingue por sua natureza retórica e pelo objetivo de alcançar benefícios sociais ou pessoais, independentemente da verdade [6].

Figura 6 – Exemplo de Besteirada/Bulshit. Fonte: Dall-E.

Um exemplo de besteiradar, originado de uma crença infundada, ocorreu em maio de 2024, quando uma influenciadora afirmou que a tragédia no Rio Grande do Sul foi causada por práticas religiosas de matriz africana (Figura 7). Esse tipo de desinformação, sem fundamento e carregado de preconceito, pode estigmatizar comunidades religiosas e dificultar os esforços de ajuda ao desviar a atenção dos reais fatores causadores da tragédia, prejudicando a coordenação e a eficácia das ações de socorro​​. 

Figura 7 – Exemplo de besteirada. Fonte: G1 Notícia.

Mecanismos Sociotécnicos

  1. Desprezo pela verdade: A busca pela verdade é ignorada ou deliberadamente desconsiderada em favor de argumentos retóricos ou agendas pessoais.
  1. Falta de interesse pela evidência: A besteirada não se preocupa com a comprovação de suas afirmações, priorizando a persuasão e o impacto emocional em vez da lógica e da razão.
  1. Foco na forma, não no conteúdo: A ênfase está na forma como a informação é apresentada, utilizando linguagem grandiosa ou jargões técnicos para impressionar o público, sem se importar com a substância do que está sendo dito.
  1. Exploração de vulnerabilidades cognitivas: Apelo à Falácias Lógicas: são raciocínios falsos que parecem verdadeiros, geralmente induzindo conclusões na argumentação[4, 9]. Por exemplo: falácias lógicas de apelo a ignorância (buscando argumentos sobre fatos, ou possíveis fatos, dos quais a audiência desconhece ou não tem acesso).
  1. Manipulação Tecnológica: Explorar as limitações da tecnologia: Por exemplo: fatores como planos de acesso a telefonia móvel que limitam a capacidade do usuário de verificar informações recebidas, falta de mecanismos de detecção ou de atributos que facilitem a visualização de uma mensagem suspeita [10]. 

Teorias da Conspiração

As teorias da conspiração são narrativas complexas que sugerem que eventos significativos resultam de planos secretos e malévolos de grupos ou indivíduos poderosos (Figura 8). Elas misturam fatos reais com suposições e insinuações, tornando-se difíceis de desmentir completamente. Essas teorias surgem do desejo de explicar o inexplicável de encontrar padrões em eventos aleatórios. Elas apelam para a desconfiança pública em relação a autoridades e instituições. Proponentes frequentemente se apresentam como detentores de “conhecimento proibido”, atraindo seguidores que buscam respostas fora dos canais oficiais.

Figura  8 – Notícia de teoria conspiratória sobre as inundações no RS. Fonte: BBC.

Mecanismos Sociotécnicos

  1. Aspectos sociais

As teorias da conspiração geralmente refletem medos, desconfianças e divisões presentes na sociedade. Entender esses contextos ajuda a identificar as razões pelas quais as pessoas se apegam a tais teorias. Aspectos relevantes como:

  • Desconfiança nas Instituições [11]:  desconfiança em governos, mídia e instituições científicas facilita a aceitação de teorias da conspiração, pois elas oferecem explicações alternativas para eventos complexos.
  • Polarização Social e Política [12]: Em sociedades polarizadas, grupos opostos tendem a aceitar teorias que demonizam o outro lado, reforçando divisões e conflitos.
  • Necessidade de Pertencimento [13]: As comunidades de teorias da conspiração proporcionam um senso de pertencimento e identidade, atraindo pessoas que se sentem alienadas ou desconectadas da sociedade dominante.
  • Influência de Redes Sociais [14]: As redes sociais facilitam a rápida disseminação de teorias da conspiração, amplificando mensagens através de algoritmos que priorizam conteúdo envolvente, independentemente da veracidade.
  1. Exploração de Vulnerabilidades Cognitivas

    Falácias como: 

  • Apelo à Ignorância: Assumir que algo é verdadeiro simplesmente porque não foi provado falso, 
  • Falsa Causa: Estabelecer uma relação de causa e efeito entre eventos que são apenas coincidentes, 
  • Generalização Apressada: Tirar conclusões gerais a partir de um número insuficiente de casos específicos. 

    Vieses cognitivos como: 

  • Viés de Confirmação: Procurar ou interpretar informações de uma maneira que confirme as próprias crenças preexistentes, 
  • Viés de Proporcionalidade: Acreditar que eventos grandes devem ter causas igualmente grandes.
  • Viés de Disponibilidade: Dar mais importância a exemplos ou informações que são facilmente lembradas.
  • Efeito Manada: A tendência de adotar crenças e comportamentos porque muitas outras pessoas os adotaram. 
  1. Manipulação Tecnológica
  • Interesses dos Controladores:
    • Plataformas como Facebook e Instagram têm um modelo de negócios baseado na atenção dos usuários. Quanto mais interação nos conteúdos, mais dinheiro ganham através de publicidade. 
  • Exploração das Limitações Tecnológicas:
    • Engajamento Algorítmico: Algoritmos são projetados para maximizar o tempo de uso, promovendo conteúdos que geram mais engajamento. Teorias da conspiração, sendo sensacionalistas, tendem a ter alta interação. 
    • Bolhas de Informação: Direcionamento de conteúdo com base nos interesses dos usuários cria bolhas informacionais, onde visões conspiratórias podem prosperar sem contestação. 
    • Desinformação Viral: Conteúdos conspiratórios são amplificados devido à sua capacidade de gerar comentários, compartilhamentos e reações emocionais. 
    • Literacia Digital Insuficiente: A falta de literacia digital impede o acesso a múltiplas fontes de informação, tornando mais difícil a verificação dos dados e contribuindo para a aceitação de teorias conspiratórias promovidas por figuras de autoridade. 

Abordagem Sociotécnica: Uma Visão Integrada para um Problema Complexo

A abordagem sociotécnica propõe uma análise holística da desinformação, considerando os diversos fatores que contribuem para sua disseminação e impacto. Esse tipode abordagem vai além das medidas técnicas e educativas tradicionais, reconhecendo que a desinformação é um fenômeno complexo que se manifesta em diferentes níveis da sociedade.

Figura 10 – Representação ilustrativa das diferentes dimensões que precisam ser abordadas em conjunto para mitigação dos efeitos nocivos da desinformação digital. Fonte: Dall-E

Fatores Sociais:

  • Manipulação da opinião pública [4]: A desinformação pode ser utilizada para influenciar a opinião pública sobre questões sociais, políticas ou econômicas, muitas vezes com o objetivo de promover agendas específicas ou deslegitimar grupos minoritários.
  • Cultura de Sensacionalismo [15]: Uma cultura que valoriza o sensacionalismo e o escândalo torna as teorias da conspiração mais atraentes, pois elas tendem a ser dramáticas e emocionantes.
  • Falta de Literacia Mediática [16]: A incapacidade de avaliar criticamente informações e verificar fontes contribui para a difusão de teorias da conspiração.
  • Mudanças Rápidas e Incertas [17]: Períodos de crise ou mudança rápida, como pandemias ou crises econômicas, aumentam a ansiedade e a busca por explicações simples e definitivas, mesmo que sejam infundadas.
  • Exacerbação de divisões sociais [4]: A disseminação de informações falsas pode aprofundar divisões existentes na sociedade, alimentando preconceitos, ódio e violência.
  • Erosão da confiança nas instituições [4]: A desinformação sistemática pode levar à perda de confiança em instituições como governos, meios de comunicação e academia, dificultando o diálogo social e a resolução de problemas coletivos [4].

Fatores Políticos:

  • Interferência em processos eleitorais: A utilização de fake news e outras formas de desinformação durante as eleições pode influenciar o voto dos eleitores, minar a legitimidade do processo democrático e desestabilizar sistemas políticos [4].
  • Propaganda política: Atores políticos podem utilizar plataformas digitais e outros meios de comunicação para espalhar desinformação a fim de promover suas candidaturas, agendas ou ideologias [4].
  • Polarização política: A desinformação pode contribuir para a polarização do debate político, dificultando o diálogo construtivo e a busca por soluções consensuais para os desafios da sociedade [4].

Fatores Tecnológicos:

  • Algoritmos e bolhas de informação: Algoritmos de recomendação em plataformas digitais podem direcionar os usuários para conteúdos que confirmam suas crenças pré-existentes, criando “bolhas de informação” e limitando a exposição a diferentes perspectivas [4].
  • Proliferação de conteúdo falso: A facilidade de criação e compartilhamento de conteúdo online facilita a disseminação de notícias falsas, memes enganosos e outros tipos de desinformação [4].
  • Dificuldade na verificação de fatos: A quantidade de informações disponíveis online e a velocidade com que elas são compartilhadas podem dificultar a verificação da veracidade das informações, especialmente para usuários com menor familiaridade com ferramentas de checagem de fatos [4].

Fatores Psicológicos:

  • Viés de confirmação: A tendência de buscar e acreditar em informações que confirmam crenças e valores pré-existentes torna as pessoas mais suscetíveis à desinformação que se alinha com suas visões de mundo [4].
  • Busca por explicações simples: A desinformação muitas vezes oferece respostas fáceis e imediatas para questões complexas, o que pode ser atraente para pessoas que buscam compreender o mundo ao seu redor [4].
  • Emoções e heurísticas: A desinformação pode ser apelativa para as emoções das pessoas, como medo, raiva ou indignação, o que pode levar à aceitação acrítica de informações falsas [4].

Combate à Desinformação: Uma Abordagem Multifacetada

Combater a desinformação de forma eficaz exige uma abordagem multifacetada que combine medidas em diferentes níveis:

  • Aprimoramento das plataformas digitais: As plataformas digitais devem implementar medidas para combater a proliferação de desinformação em suas plataformas, como melhorar a detecção e remoção de conteúdo falso, aumentar a transparência dos algoritmos de recomendação e promover a educação midiática entre os usuários [4].
  • Verificação de fatos e educação midiática: É fundamental investir em iniciativas de verificação de fatos e educação midiática para que os usuários possam desenvolver habilidades para identificar e avaliar criticamente a informação online [4].
  • Fortalecimento do jornalismo de qualidade: O jornalismo de qualidade, baseado em fatos e evidências, é crucial para combater a desinformação e fornecer aos cidadãos informações confiáveis e precisas [4].
  • Promoção do diálogo e da inclusão: É necessário promover o diálogo construtivo entre diferentes grupos da sociedade e combater o discurso de ódio e a discriminação online [4].
  • Regulamentação das tecnologias de comunicação: Governos e organismos internacionais devem trabalhar juntos para desenvolver frameworks regulatórios que garantam o uso responsável das tecnologias de comunicação e combatam a disseminação de desinformação [4].

Ao abordar a desinformação de forma abrangente e considerando os diversos fatores que contribuem para sua disseminação, podemos construir um ambiente digital mais seguro, informado e inclusivo para todos.

Referências

[1] https://g1.globo.com/politica/noticia/2024/05/08/pf-abre-inquerito-para-apurar-divulgacao-de-fake-news-sobre-enchentes-no-rs.ghtml

[2] Tudjman, M., & Mikelic, N. (2003). Information science: Science about information, misinformation and disinformation. Proceedings of Informing Science+ Information Technology Education, 3, 1513-1527.

[3] Puska, A. A., & Pereira, R. (2023, October). Exploring Digital Misinformation as a Sociotechnical Phenomenon: Insights from a Small-scale Study. In Proceedings of the XXII Brazilian Symposium on Human Factors in Computing Systems (pp. 1-12).

[4] Puska, A. A. Tese (doutorado) – Universidade Federal do Paraná, Setor de Ciencias Exatas, Programa de Pós-Graduação em Informática. Defesa : Curitiba, 28/08/2023 – https://hdl.handle.net/1884/85764

[5] Caled, D., & Silva, M. J. (2022). Digital media and misinformation: An outlook on multidisciplinary strategies against manipulation. Journal of Computational Social Science, 5(1), 123-159.

[6] Frankfurt , Harry G. 2005 . On Bullshit . Princeton, NJ : Princeton University Press .

[7] https://www.cartacapital.com.br/politica/governo-lula-vai-a-justica-contra-pablo-marcal-e-cobra-resposta-sobre-socorro-ao-rs/?utm_campaign=later-linkinbio-cartacapital&utm_content=later-42894435&utm_medium=social&utm_source=linkin.bio

[8] DiFranzo, D., & Gloria-Garcia, K. (2017). Filter bubbles and fake news. XRDS: crossroads, the ACM magazine for students, 23(3), 32-35.

[9] Cialdini, R. B., & Cialdini, R. B. (2007). Influence: The psychology of persuasion (Vol. 55, p. 339). New York: Collins.

[10] Puska, A., Baroni, L. A., Canal, M. C., Piccolo, L. S., & Pereira, R. (2020, October). WhatsApp and false information: a value-oriented evaluation. In Proceedings of the 19th Brazilian Symposium on Human Factors in Computing Systems (pp. 1-10).

[11] Hameleers, M. (2020). They are selling themselves out to the enemy! The content and effects of populist conspiracy theories. International Journal of Public Opinion Research, 32(2), 243-264. doi:10.1093/ijpor/edz019

[12]  Douglas, K. M., & Sutton, R. M. (2015). Climate change: Why the conspiracy theories are dangerous. Bulletin of the Atomic Scientists, 71(2), 98-106. doi:10.1177/0096340215571908

[13] Leman, P. J., & Cinnirella, M. (2007). A major event has a major cause: Evidence for the role of heuristics in reasoning about conspiracy theories. Social Psychological Review, 9(2), 18-28.

[14] Del Vicario, M., Vivaldo, G., Bessi, A., Zollo, F., Scala, A., Caldarelli, G., & Quattrociocchi, W. (2016). Echo chambers: Emotional contagion and group polarization on Facebook. Scientific Reports, 6, 37825. doi:10.1038/srep37825

[15] Goertzel, T. (1994). Belief in conspiracy theories. Political Psychology, 15(4), 731-742. doi:10.2307/3791630

[16] Kahne, J., & Bowyer, B. (2017). Educating for democracy in a partisan age: Confronting the challenges of motivated reasoning and misinformation. American Educational Research Journal, 54(1), 3-34. doi:10.3102/0002831216679817

[17] Van Prooijen, J. W., & Douglas, K. M. (2017). Conspiracy theories as part of history: The role of societal crisis situations. Memory Studies, 10(3), 323-333. doi:10.1177/1750698017701615

[18] https://www.infomoney.com.br/consumo/hackers-criam-vagas-de-emprego-falsas-e-mais-de-300-mil-pessoas-correm-risco/

[19] https://entretenimento.r7.com/famosos-e-tv/influenciadora-choca-ao-dizer-que-cada-cor-de-detergente-tem-um-uso-verde-para-lavar-o-rosto-15032023/

[20] https://noticias.uol.com.br/confere/ultimas-noticias/2024/05/18/o-que-esta-por-tras-fake-news-enchentes-rio-grande-do-sul.htm

Sobre o autor

Alisson Andrey Puska é Cientista da  omputação, Doutor em Informática pela Universidade Federal do Paraná (UFPR) (2023). Atualmente, é diretor da Incubadora Tecnológica de Pato Branco e professor na Universidade de Pato Branco. Seus interesses de pesquisa englobam pesquisa multidisciplinar, semiotica organizacional, aspectos humanos na segurança computacional (cyber deception, cyber social engineering) e filosofia da ciência e tecnologia. Alisson também é músico e adora escrever.




Compartilhe: