- Em apenas três a quatro horas de interação com o feed “Para ti” do TikTok, as contas de teste de adolescentes foram expostas a vídeos que romantizavam o suicídio ou mostravam jovens a expressar intenções de acabar com as suas vidas, incluindo informações sobre métodos de suicídio
- Apesar das medidas de mitigação de riscos anunciadas pelo TikTok desde 2024, a plataforma continua a expor utilizadores vulneráveis a conteúdos que normalizam a automutilação, o desespero e as ideias suicidas
- “Estas novas provas de claras violações da DSA por parte do TikTok devem ser urgentemente tidas em conta na investigação em curso da Comissão Europeia. Devem ser tomadas medidas vinculativas e eficazes para obrigar o TikTok a finalmente tornar a sua aplicação segura para os jovens na União Europeia e em todo o mundo” – Katia Roux
(O relatório contém conteúdo sensível, incluindo referências a automutilação e suicídio)
Uma nova investigação da Amnistia Internacional descobriu que o feed “Para ti” do TikTok está a empurrar crianças e jovens franceses que interagem com conteúdos relacionados com saúde mental para um ciclo de depressão, automutilação e suicídio.
A investigação, intitulada “Dragged into the Rabbit Hole” (Arrastado para a toca do coelho), destaca o fracasso contínuo do TikTok em abordar os riscos sistémicos do seu design que afetam crianças e jovens.
“A nossa investigação técnica mostra a rapidez com que os adolescentes que manifestam interesse em conteúdos relacionados com a saúde mental podem ser atraídos para ‘tocas de coelho tóxicas’. Em apenas três a quatro horas de interação com o feed ‘Para ti’ do TikTok, as contas de teste de adolescentes foram expostas a vídeos que romantizavam o suicídio ou mostravam jovens a expressar intenções de acabar com as suas vidas, incluindo informações sobre métodos de suicídio”, revelou Lisa Dittmer, investigadora da Amnistia Internacional sobre os direitos digitais de crianças e jovens.
Em apenas três a quatro horas de interação com o feed ‘Para ti’ do TikTok, as contas de teste de adolescentes foram expostas a vídeos que romantizavam o suicídio ou mostravam jovens a expressar intenções de acabar com as suas vidas, incluindo informações sobre métodos de suicídio.”
Lisa Dittmer
“Os testemunhos de jovens e pais enlutados em França revelam como o TikTok normalizou e exacerbou a automutilação e as ideias suicidas ao ponto de recomendar conteúdos sobre ‘desafios suicidas’”, acrescentou.
O feed “Para ti” do TikTok é um fluxo personalizado de vídeos curtos que recomenda conteúdos com base nas visualizações.
Os investigadores da Amnistia Internacional criaram três contas de adolescentes, duas femininas e uma masculina, registadas como tendo 13 anos e residindo em França, para examinar manualmente a amplificação algorítmica do conteúdo no feed “Para ti” do TikTok. Cinco minutos após começarem a navegar e antes de sinalizarem quaisquer preferências, as contas encontraram vídeos sobre tristeza ou desilusão.
Assistir a esses vídeos aumentou rapidamente a quantidade de conteúdo relacionado com a tristeza e a saúde mental. Cerca de 15 a 20 minutos após o início da experiência, os três feeds estavam quase exclusivamente preenchidos com vídeos relacionados com saúde mental. Quase metade desses vídeos continha conteúdo depressivo. Duas contas tiveram vídeos que expressavam pensamentos suicidas em apenas 45 minutos.
Cerca de 15 a 20 minutos após o início da experiência, os três feeds estavam quase exclusivamente preenchidos com vídeos relacionados com saúde mental. Quase metade desses vídeos continha conteúdo depressivo. Duas contas tiveram vídeos que expressavam pensamentos suicidas em apenas 45 minutos.
Foram realizadas experiências adicionais com o Algorithmic Transparency Institute recorrendo a contas de teste automatizadas de jovens de 13 anos em França. Descobriram que o sistema de recomendação do TikTok mais do que duplicou a proporção de conteúdo triste ou depressivo recomendado quando os históricos de visualização incluíam diferentes níveis desses vídeos.
A pesquisa foi realizada em França, onde o TikTok é regulamentado pela Lei de Serviços Digitais (DSA) da União Europeia, que, desde 2023, exige que as plataformas identifiquem e mitiguem riscos sistémicos aos direitos das crianças.
Os legisladores franceses estão atualmente a debater lacunas na regulamentação das redes sociais, e esta pesquisa reforça as provas reveladas anteriormente pela Amnistia Internacional de que o TikTok não abordou os riscos sistémicos ligados ao seu modelo de negócios baseado no envolvimento.
Impacto nos jovens
Apesar das medidas de mitigação de riscos anunciadas pelo TikTok desde 2024, a plataforma continua a expor utilizadores vulneráveis a conteúdos que normalizam a automutilação, o desespero e as ideias suicidas.
Testemunhos de jovens com depressão e de pais afetados ou enlutados revelam a extensão dos riscos e danos do modelo de negócios do TikTok para a saúde mental e física de jovens que já enfrentam dificuldades.
“Há vídeos que ainda estão gravados na minha retina”, disse Maëlle, 18, descrevendo como foi atraída por conteúdos depressivos e de automutilação no feed “Para ti” do TikTok, em 2021. Nos três anos seguintes, a sua saúde mental continuou a deteriorar-se com a automutilação, à medida que era impactada por conteúdos online prejudiciais.
“Ver pessoas que se cortam, pessoas que dizem que medicamentos tomar para acabar com tudo, influencia e encoraja-nos a magoar-nos a nós próprios”.
“Ver pessoas que se cortam, pessoas que dizem que medicamentos tomar para acabar com tudo, influencia e encoraja-nos a magoar-nos a nós próprios.”
Jovem
Embora o relatório se concentre na amplificação de conteúdos prejudiciais, os testemunhos recolhidos também apontam para as falhas do TikTok na moderação de conteúdos. Apesar das repetidas denúncias de jovens e respetivas famílias, os conteúdos que incitam à automutilação ou ao suicídio não foram removidos da plataforma, de acordo com os participantes da pesquisa.
Os investigadores da Amnistia Internacional encontraram dois vídeos do “desafio do batom” no feed de uma conta de teste gerida manualmente no verão de 2025. A tendência social supostamente começou como um desafio para adivinhar o aroma de um batom noutra pessoa. A ideia evoluiu para uma versão diferente, incentivando as pessoas a remover um pedaço do batom sempre que se sentissem tristes e a mutilarem-se ou tentarem o suicídio quando o batom acabasse.
“Para essas plataformas, os nossos filhos tornam-se produtos em vez de seres humanos. Elas usam os nossos filhos como produtos, com um algoritmo e uma bolha de filtro, usando as suas emoções para os cativar. O algoritmo capta os seus interesses, o que não é normal. Invadem a vida privada da criança. Mas as crianças têm direitos”, afirmou Stéphanie Mistre, mãe de Marie Le Tiec, de 15 anos, uma criança francesa que caiu na espiral de conteúdo depressivo do TikTok e acabou com a sua vida em 2021.
Medidas urgentes para tornar TikTok seguro
Esta investigação demonstra o fracasso do TikTok em abordar os riscos sistémicos causados pelo design viciante da sua plataforma nos jovens. A empresa não está a cumprir com a sua responsabilidade de respeitar os direitos humanos, em conformidade com os Princípios Orientadores das Nações Unidas sobre Empresas e Direitos Humanos, e não está a cumprir todas as suas obrigações ao abrigo da DSA.
“Estas novas provas de claras violações da DSA por parte do TikTok devem ser urgentemente tidas em conta na investigação em curso da Comissão Europeia. Devem ser tomadas medidas vinculativas e eficazes para obrigar o TikTok a finalmente tornar a sua aplicação segura para os jovens na União Europeia e em todo o mundo”, afirma Katia Roux, responsável pela defesa dos direitos humanos da Amnistia Internacional França.
“Devem ser tomadas medidas vinculativas e eficazes para obrigar o TikTok a finalmente tornar a sua aplicação segura para os jovens na União Europeia e em todo o mundo.”
Katia Roux
O desrespeito do TikTok pelos danos sistémicos associados ao seu modelo orientado para o envolvimento levanta sérias preocupações quanto ao cumprimento da DSA e sublinha a necessidade de medidas regulamentares e de responsabilização da plataforma mais fortes para proteger as crianças e os utilizadores vulneráveis.
A Amnistia Internacional partilhou as suas principais conclusões com o TikTok. A empresa não respondeu.
Contexto
Em 2023, a Amnistia Internacional publicou dois relatórios complementares, Driven into the Darkness: How TikTok Encourages Self‑harm and Suicidal Ideation (Impulsionados para a escuridão: como o TikTok incentiva a automutilação e as ideias suicidas) e “I feel exposed”: Caught in TikTok’s surveillance web (Sinto-me exposto: preso na teia de vigilância do TikTok), destacando os abusos sofridos por crianças e jovens que utilizam o TikTok.
Mais informação sobre as questões abordadas neste relatório no guia da Amnistia Internacional Staying Resilient While Trying to Save the World (Volume 2): A Well-being Workbook for Youth Activists (Mantendo-se resiliente enquanto tenta salvar o mundo (Volume 2): Um livro de exercícios sobre bem-estar para jovens ativistas).
O que revela a investigação da Amnistia Internacional sobre o algoritmo do TikTok em França?
▼Que tipo de conteúdos prejudiciais são promovidos pelo TikTok a menores, segundo a análise?
▼Como é que o algoritmo do TikTok contribui para a exposição a conteúdos perigosos?
▼Quais são os riscos para a saúde mental de crianças e adolescentes devido a estes conteúdos?
▼O TikTok toma alguma medida para proteger os utilizadores mais jovens destes conteúdos?
▼Que recomendações faz a Amnistia Internacional para resolver este problema?
▼⚠️ Este painel de questões relacionadas foi criado com IA mas revisto por um humano.