- Investigação de 2023 revelou que as crianças corriam o risco de ser atraídas para um “buraco negro” tóxico de conteúdos, relacionados com a depressão e o suicídio
- Quase 18 meses depois, empresa não reconheceu o problema do “buraco negro” da aplicação. Nem apresentou provas de quaisquer novas medidas específicas para o resolver
- Pode haver impacto no bem-estar mental, particularmente para os utilizadores mais jovens, associado a conteúdo concentrado relacionado com dietas extremas e conteúdo relacionado com a imagem corporal
O TikTok não está a abordar os graves riscos de danos à saúde mental e física dos jovens utilizadores, quase 18 meses depois de a Amnistia Internacional ter destacado esses riscos num relatório inovador.
A investigação de 2023 revelou que as crianças corriam o risco de ser atraídas para um “buraco negro” tóxico de conteúdos, relacionados com a depressão e o suicídio, no feed “Para ti” do TikTok.
Numa investigação que utilizou contas para simular adolescentes de 13 anos online, a Amnistia Internacional descobriu que, 20 minutos após criar uma conta e sinalizar interesse em saúde mental, mais de metade dos vídeos no feed “Para ti” do TikTok estavam relacionados com problemas de saúde mental. Vários desses vídeos recomendados numa única hora romantizavam, normalizavam ou encorajavam o suicídio. Esta foi uma das principais conclusões da Amnistia Internacional num projeto de investigação em grande escala publicado em novembro de 2023 sobre os riscos para os direitos das crianças e dos jovens numa das plataformas de redes sociais mais populares da nossa época.
Antes da Semana de Consciencialização sobre Saúde Mental de 2025, a Amnistia Internacional perguntou ao TikTok quais as mudanças que a empresa tinha implementado desde então. A resposta do TikTok enumerou medidas de “bem-estar” já conhecidas, a maioria das quais já estavam em vigor quando a investigação foi realizada, e não reconheceu o problema do “buraco negro” da aplicação. Também não apresentou provas de quaisquer novas medidas específicas para o resolver.
A resposta do TikTok enumerou medidas de “bem-estar” já conhecidas, a maioria das quais já estavam em vigor quando a investigação foi realizada, e não reconheceu o problema do “buraco negro” da aplicação
A avaliação de risco do TikTok para 2024, ao abrigo da Lei dos Serviços Digitais (DSA) da União Europeia, reconhece que “certos tipos de conteúdo concentrado, embora não violem as Diretrizes da Comunidade TikTok, podem causar danos ao reforçar inadvertidamente uma experiência pessoal negativa para alguns espectadores. Por exemplo, pode haver um impacto no bem-estar mental, particularmente para os utilizadores mais jovens, associado a conteúdo concentrado relacionado com dietas extremas e conteúdo relacionado com a imagem corporal”.
Na mesma secção da avaliação de risco, o TikTok enumera medidas de mitigação, tais como a aplicação proativa das suas Diretrizes da Comunidade, a manutenção de padrões de elegibilidade de conteúdo e a aplicação de “técnicas de dispersão” ao feed “Para ti”, bem como ferramentas para os utilizadores, incluindo opções de filtragem e uma função de atualização para redefinir o feed. Todas estas medidas já estavam em vigor em 2023, quando a Amnistia Internacional conduziu a sua investigação e demonstrou que os jovens utilizadores estavam expostos a riscos sistémicos na plataforma.
Muitas promessas, mas pouca ação
Apesar da crescente base de utilizadores do TikTok, especialmente em países com populações jovens como o Quénia, onde a idade média é de 20 anos, a plataforma ainda não realizou uma diligência prévia básica em matéria de direitos da criança para abordar quaisquer riscos para os seus utilizadores mais jovens. A resposta do TikTok às nossas últimas perguntas de investigação sobre o que está a fazer para tornar a aplicação mais segura para os utilizadores jovens revela que, sete anos após se tornar disponível internacionalmente, a empresa ainda está à espera que um fornecedor externo conclua uma avaliação do impacto dos direitos da criança na plataforma, uma responsabilidade fundamental ao abrigo das normas internacionais de direitos humanos para as empresas.
É o utilizador quem decide parar — o design viciante do TikTok+
Um jovem ativista de direitos humanos no Quénia, entrevistado em março de 2025 sobre as suas experiências no TikTok, falou sobre a sua luta contra o uso excessivo da plataforma, chamando-a de “muito viciante” e partilhando que tenta minimizar o seu uso para quatro horas por dia. O caso ilustra as preocupações contínuas da Amnistia Internacional em relação ao design viciante do TikTok e ao uso limitado de limites de tempo facilmente ignoráveis, que dependem da ação do utilizador ou dos pais para coibir o uso excessivo e prejudicial da plataforma. O TikTok afirma que trabalha com especialistas em saúde infantil para ajudar a projetar o aplicativo de forma a responder às necessidades das crianças e que implementou novos avisos para incentivar os adolescentes a limitar o uso. No entanto, isso exige que as crianças e os seus pais neutralizem o potencial viciante de uma plataforma concebida para maximizar o envolvimento através de escolhas de design não muito diferentes das utilizadas pelos casinos.
“Escolhas” de privacidade
A investigação da Amnistia Internacional também destacou que o modelo de negócio invasivo do TikTok rastreia tudo o que um utilizador faz na plataforma para prever os seus interesses, estado emocional e bem-estar. O TikTok disfarça esta invasão do direito à privacidade dos utilizadores como uma escolha. Na sua resposta às perguntas da Amnistia Internacional, o TikTok afirma que “tal como outras aplicações, o TikTok recolhe informações que os utilizadores optam por fornecer, juntamente com dados que apoiam aspetos como a funcionalidade da aplicação, a segurança e a experiência geral do utilizador” e que “ver um vídeo não implica necessariamente a identidade de alguém”. No entanto, o feed “Para ti” do TikTok capta claramente o estado emocional de uma pessoa quando amplifica conteúdos relacionados com depressão e até suicídio e, em seguida, usa a sua suscetibilidade a esses conteúdos para recomendar mais do mesmo, independentemente dos danos potenciais. Os testemunhos de jovens recolhidos pela Amnistia Internacional destacam que muitos jovens não se sentem bem informados sobre os dados que estão a ser recolhidos pela aplicação e não se sentem “no controlo” do conteúdo recomendado ou da forma como os seus dados são utilizados.
Os testemunhos de jovens recolhidos pela Amnistia Internacional destacam que muitos jovens não se sentem bem informados sobre os dados que estão a ser recolhidos pela aplicação
A Amnistia Internacional partilhou com a empresa a sua análise sobre o fracasso contínuo do TikTok em abordar os riscos para os direitos das crianças e dos jovens. Em resposta à nossa alegação de violação do direito à privacidade pelo TikTok, a empresa afirmou: “A sugestão da Amnistia Internacional de que o TikTok está de alguma forma ciente e utiliza o estado emocional do utilizador para recomendar conteúdos é uma caracterização errada do funcionamento da nossa plataforma”. Ecoando o seu relatório de avaliação de risco da DSA, a resposta do TikTok às nossas conclusões também afirmou que a empresa está “a utilizar modelos de aprendizagem automática para evitar recomendar uma série de vídeos semelhantes sobre temas que não violam as Diretrizes da Comunidade TikTok, mas que são potencialmente problemáticos se vistos repetidamente”. Além das medidas de mitigação discutidas acima, o TikTok afirmou que “desenvolveu um painel de controlo do tempo de ecrã que fornece visibilidade ao utilizador sobre como e quando está na plataforma”.
Atuar agora
Alguns Estados estão agora a implementar leis para obrigar plataformas como o TikTok a avaliar e mitigar os riscos para os direitos e a saúde dos utilizadores. No entanto, o TikTok não deve esperar ser obrigada a fazer alterações, deve fazê-lo agora.
Pode ajudar-nos a exortar o TikTok a tornar a plataforma mais segura — assine a nossa petição.