![]()
O Centro de Combate ao Ódio Digital (CCDH) acusou o 11 de negligência perigosa, afirmando que as suas medidas para conter conteúdos associados a distúrbios alimentares e automutilação são “insuficientes”. Segundo investigação do CCDH, o algoritmo do TikTok expõe adolescentes a vídeos sobre suicídio em 2,6 minutos após o registo e a transtornos alimentares em oito minutos. Para utilizadores identificados como vulneráveis, a exposição a conteúdo de automutilação é 12 vezes superior à de um perfil comum.
O relatório, disponível aqui, sublinha que o algoritmo do TikTok “é um sistema projetado para fisgar os utilizadores por qualquer meio necessário”. A recente remoção de mais de 500 mil publicações com a hashtag “#SkinnyTok” – tendência que incentivava perda de peso extrema e difundia imagens corporais tóxicas – não resolve o cerne do problema: a recomendação algorítmica. A Comissão Europeia já alertou para o impacto destes conteúdos na saúde mental juvenil.
No YouTube, a situação é igualmente grave. Um em cada três vídeos recomendados pela plataforma a adolescentes de 13 anos aborda transtornos alimentares ou perda de peso, sendo que quase dois terços continham mensagens prejudiciais. Apesar da Lei de Serviços Digitais (DSA) da UE, que exige maior proteção de menores, as ações da Comissão limitaram-se a “pedidos de orientação” sobre os sistemas de recomendação.
Em resposta, o TikTok afirmou remover “98% do conteúdo nocivo” e destacou a colaboração com a Organização Mundial de Saúde para direcionar utilizadores a fontes fidedignas. Contudo, o CCDH mantém a crítica: as plataformas priorizam o engagement, colocando em risco a saúde mental dos jovens.
NR/HN/Lusa



0 Comments