Nos últimos anos, acadêmicos e profissionais da saúde têm observado um aumento na desinformação em saúde, à medida que as pessoas se afastam de especialistas médicos licenciados. A internet desempenha um papel central nessa disseminação, facilitando o acesso a conteúdos falsos ou enganosos e reduzindo as barreiras para que criadores de conteúdo propaguem informações incorretas online.
As mídias sociais vão além de simplesmente ampliar o volume de desinformação em saúde. Essas tecnologias intensificam as relações para-sociais que os usuários estabelecem com as pessoas que seguem. Essas plataformas permitem que criadores de conteúdo se tornem microcelebridades, conquistando confiança e intimidade ao se apresentarem como pessoas relacionáveis, “como seus seguidores”. Ademais, essas pessoas também se aproveitam de condições de baixa confiança institucional para se posicionarem como alternativas confiáveis aos especialistas tradicionais. No domínio da saúde e bem-estar, a capacidade dos influenciadores de se apresentarem como acessíveis, autênticos e autônomos – fora do sistema – é central para sua credibilidade e apelo popular.
A cultura do bem-estar é especialmente suscetível à desinformação em saúde porque o conceito de bem-estar é holístico, integrando a otimização física, mental e espiritual, características altamente individualizadas e subjetivas.
A desinformação em saúde se disseminou com sucesso durante a pandemia, em parte, porque influenciadores exploraram as vulnerabilidades da cultura do bem-estar e as características participativas das mídias sociais para promover desinformação e conteúdos conspiratórios. Os que espalhavam desinformação frequentemente fomentavam sentimentos de desconfiança institucional para se posicionarem como alternativas independentes e confiáveis em temas relacionados à COVID-19: os chamados influenciadores de saúde alternativa.
Esses influenciadores não apenas criaram conteúdos falsos e enganosos, mas desempenharam um papel crucial na amplificação da desinformação em saúde e de teorias da conspiração durante a pandemia. Promoveram, por exemplo, a hidroxicloroquina e a ivermectina como “curas milagrosas” para a COVID-19, supostamente suprimidas pelo governo e pela indústria farmacêutica em favor das vacinas.
Esses influenciadores frequentemente exploravam narrativas de perseguição e ameaças de desmonetização ou desplatformização para mobilizar seus seguidores e direcioná-los a plataformas menos reguladas. Alguns influenciadores habilidosos usaram memes antivacinação para atrair usuários a outros espaços do ecossistema digital, tanto para persuasão quanto para lucro.
Embora não haja uma relação causal simples entre consumir conteúdos e ser radicalizado, influenciadores podem facilitar trajetórias de radicalização ao expor usuários a conteúdos extremistas que, de outra forma, não veriam, e ao normalizar crenças marginais por meio de um processo gradual de socialização.
A suscetibilidade dos usuários de mídias sociais à radicalização online está parcialmente ligada ao papel dos algoritmos na recomendação de conteúdos extremistas.
O modelo de negócios das plataformas de mídia social, baseado na geração de engajamento e receita publicitária, motiva seu funcionamento como um “instrumento de radicalização. Na economia da atenção, o conteúdo mais polêmico atrai mais engajamento, com criadores de conteúdo explorando estrategicamente as mídias sociais ao fazer comentários incendiários para gerar indignação, ódio e publicidade. Esse processo é conhecido como “manipulação da atenção”.
Do ponto de vista do usuário, as mídias sociais incentivam conteúdos sensacionalistas, permitindo que criadores de conteúdo lucrem com parte da receita publicitária gerada por seus vídeos. As plataformas também lucram com esses incentivos, atraindo usuários para conteúdos polêmicos e monetizando sua atenção por meio de métricas de engajamento (como cliques, visualizações e compartilhamentos) para vender publicidade. Em resumo, os algoritmos são projetados para maximizar o tempo que os usuários passam online, aumentando os lucros das plataformas por meio da venda de mais anúncios.
Embora a radicalização não seja um efeito direto de consumir conteúdos radicais online, o algoritmo do TikTok tem sido criticado por seu potencial de radicalização. Lançado em 2016, a plataforma se especializa em vídeos curtos e, desde 2021, expandiu seu limite de duração de 60 segundos para até 10 minutos.
Estima-se que entre 90% e 95% das visualizações no TikTok sejam geradas pelo algoritmo de recomendação. Essa característica torna os usuários mais suscetíveis ao consumo de desinformação em saúde, pois o algoritmo conecta criadores a novos públicos, expondo-os tanto a conteúdos de seus seguidores quanto de criadores que não escolheram seguir.
Assim, a estrutura do TikTok facilita não apenas o consumo, mas a disseminação acelerada de informações falsas, ampliando o alcance de conteúdos potencialmente prejudiciais e promovendo conexões rápidas entre influenciadores e novas audiências.
Há uma crescente produção acadêmica explorando a qualidade dos vídeos sobre câncer na plataforma, incluindo câncer de tireoide, de próstata, de mama e geniturinários. Os resultados são variados, com um estudo referindo-se ao TikTok como "uma mistura de informações". No entanto, o que recebeu menos atenção acadêmica é a prevalência de curas falsas para o câncer promovidas por criadores de conteúdo na plataforma.
Por isso, Baker e colaboradores (2024) examinaram a qualidade dos vídeos sobre curas para o câncer no TikTok e o papel do algoritmo de recomendação da plataforma em direcionar usuários a falsas curas para o câncer e conteúdos conspiratórios.
Para o estudo, os autores buscaram simular o comportamento de um indivíduo diagnosticado com câncer que utiliza o TikTok para “fazer sua própria pesquisa” e buscar curas para a doença. Para isso, foi criada uma conta no TikTok usando um pseudônimo. A pesquisa começou em 29 de abril de 2024, com a busca pelo termo “cura para câncer”. Os 50 principais posts que apareceram na página “Para Você” relacionados à pesquisa foram coletados semanalmente durante quatro semanas, de 29 de abril a 27 de maio de 2024. Esse processo simulou o comportamento de uma pessoa pesquisando curas para o câncer durante um mês após o diagnóstico.
Inicialmente, os posts foram categorizados entre aqueles que promoviam curas falsas para o câncer e aqueles que não promoviam, para quantificar a extensão da desinformação e má informação sobre saúde relacionada ao câncer no TikTok.
Em seguida, foi realizada uma análise temática para identificar padrões de significado nos dados, com foco específico em como os criadores de conteúdo legitimam as curas falsas em seus vídeos. Por fim, foram rastreados os caminhos que os criadores de conteúdo direcionavam os usuários a seguir, como links para lojas virtuais e sites pessoais, avaliando o potencial da plataforma para facilitar a radicalização e causar danos.
Dos 200 posts coletados e analisados, 163 apresentaram curas falsas para o câncer. Após uma imersão nos dados, foram gerados diversos códigos, incluindo:
Relatos pessoais de sobreviventes de câncer compartilhando suas histórias de recuperação;
Médicos contrários ao consenso científico, apresentando uma cura milagrosa para o câncer;
Teorias da conspiração, denunciando instituições médicas corruptas e alegando que curas milagrosas estão sendo suprimidas pelo sistema;
Mensagens espirituais sobre a importância da fé, religião e mentalidade para superar doenças;
Posts informativos, muitas vezes narrados, com o objetivo de vender produtos ou serviços.
Esses cinco códigos interligados forneceram insights sobre as formas como os criadores de conteúdo legitimam suas alegações e, mais especificamente, os modos de persuasão utilizados para incentivar usuários a comprar curas falsas para o câncer.
Dos 163 vídeos que promoviam curas falsas para o câncer, 61 utilizavam relatos pessoais para legitimar o conteúdo. Esses geralmente apresentavam o sobrevivente narrando sua história de superação ou refletindo sobre a sobrevivência de um membro da família ao câncer. O foco dessas histórias frequentemente girava em torno de revelações sobre curas milagrosas.
O uso do discurso em primeira pessoa singular era central para reforçar a veracidade das alegações: “Quero compartilhar como sobrevivi ao câncer de próstata.” Protocolos de estilo de vida que documentavam como “curar o câncer” frequentemente serviam para validar terapias alternativas.
Além disso, perguntas retóricas frequentemente eram usadas como recurso de persuasão e gancho emocional, explorando a história de sobrevivência do criador (ex.: “Você sabe como eu sei que é possível vencer as probabilidades?”) ou descrevendo a recuperação de outra pessoa (ex.: “História de Joe Tippins Parte #1 – Vermífugo para cães contra o câncer?!”), buscando legitimar curas falsas para o câncer.
A categoria “médicos contrários ao consenso científico” foi codificada quando profissionais de saúde promoviam curas falsas ao adotar uma postura contrária à medicina convencional. Este foi o segundo código mais prevalente, aparecendo em 60 dos 163 vídeos que promoviam curas falsas.
Embora críticos da medicina convencional, esses profissionais demonstravam sua autoridade por meio de qualificações certificadas, conhecimento institucional e treinamento.
Essa temática frequentemente era complementada por outra: mensagens conspiratórias. Médicos contrários utilizavam narrativas conspiratórias para reforçar a desconfiança em instituições e legitimar supostas descobertas milagrosas.
Teorias da conspiração sobre a verdade escondida pelas instituições médicas corruptas e a supressão de curas milagrosas para o câncer foi outro tema comum. No total, 32 vídeos promovendo curas falsas para o câncer usaram teorias conspiratórias para legitimar seu conteúdo. Essas foram uma maneira persuasiva de promover curas falsas, pois sugeriam que existia uma cura para o câncer sendo suprimida pelo “estabelecimento médico” (ex.: “A cura para o câncer sempre existiu, mas a verdade é escondida de você por um motivo,”).
Esses vídeos geralmente eram acompanhados de música evocativa e um gancho viral para gerar curiosidade e atrair atenção (ex.: “Eu vazei isso,” “Ele sabia demais,” “Vazei a receita da Coca-Cola. Vazei o corpo de Abraham Lincoln.”). Os espectadores eram direcionados a comprar um produto ou livro, que frequentemente apresentavam curas milagrosas ou “conhecimento secreto” sobre como tratar a doença (ex.: “A cura para o câncer sempre existiu. Salve isso antes que seja apagado. A cura secreta para o câncer,” “Receita secreta do livro – Câncer de 1937”).
Criadores de conteúdo frequentemente usavam linguagem codificada para evitar checagem de fatos e moderadores, aumentando a impressão de que estavam compartilhando conhecimentos secretos suprimidos pelas autoridades (ex.: “A cura secreta para o c@ncer,” “Tratamento NATURAL para CÂNCER: é o que os médicos não querem que você saiba,”).
Mensagens espirituais sobre a importância da fé, religião e mentalidade para superar doenças e enfermidades também emergiram como um tema nos dados. No total, 23 vídeos que promoviam curas falsas para o câncer empregaram temas espirituais para legitimar suas alegações. A categoria "espiritual" foi codificada quando a religião organizada era apresentada como cura para o câncer, com exemplos comuns sendo o Cristianismo e o Islã.
Em outros momentos, religião e espiritualidade eram usadas como hashtags para dar significado ao post e tornar o vídeo mais descobrível entre um público maior na plataforma (ex.: #islam, #islamic, #muslim).
Deus era uma figura central nesses vídeos. “Confie em Deus” e o corpo eram vistos como requisitos para a cura. Para alguns criadores, Deus era uma força externa e onipotente. Para outros, a medicina alternativa era sua religião e a nutrição seu Deus.
Curandeiros espirituais não viam suas práticas como anti-ciência. Muitos usavam a ciência para apoiar suas alegações (ex.: “Vou compartilhar as informações científicas que provam isso”). A mensagem subjacente dessas abordagens baseadas na fé era a importância da autoconfiança: “Você não pode se curar se não acreditar que pode.”
A categoria "informativo" foi atribuída quando o criador de conteúdo transmitiu informações sobre uma cura para o câncer sem recorrer a uma das técnicas de legitimação mencionadas acima. No toal, 29 vídeos que apresentavam curas falsas para o câncer utilizaram posts informativos para legitimar as alegações e os produtos anunciados. Esses frequentemente usavam perguntas retóricas para despertar o interesse, como: “Você sabia que as folhas de graviola matam células cancerígenas naturalmente sem efeitos colaterais?”.
As informações eram tipicamente comunicadas por meio de uma narração, às vezes com a presença do criador de conteúdo, mas na maioria das vezes mostrando uma imagem da cura milagrosa anunciada ou suas origens naturais e ancestrais (como uma montanha, rio ou planta), acompanhada de um link para a compra do produto.
Os produtos variavam entre óleo de semente preta, óleo de orégano, óleo de Ric Simpson, vermífugo para cães, sementes de damasco e chá de graviola. Posts classificados sob esse tema tendiam a ser instrutivos, ensinando os espectadores sobre as propriedades de cura de um remédio contra o câncer e como usá-lo.
O criador de conteúdo geralmente não aparecia no vídeo. Em vez disso, a informação transmitida era autoritária, usando "fatos" e ciência para legitimar os produtos e protocolos.
Em conclusão o estudo demonstrou a escala da desinformação relacionada ao câncer no TikTok. Ao analisar 200 vídeos sobre "cura do câncer" entre abril e maio de 2024, 163 dos vídeos (81%) promoviam curas falsas para o câncer. O estudo também destaca a importância do algoritmo de recomendação do TikTok, que tem o potencial de radicalizar e prejudicar usuários, promovendo conteúdos conspiratórios e curas falsas como alternativas a tratamentos convencionais, além de violar as políticas da plataforma com produtos prejudiciais. Também foi observado como a desinformação sobre saúde se espalha na internet, com o TikTok e outras plataformas digitais monetizando essas informações falsas.