Il blocco di #SkinnyTok: fra restrizioni e nuove sfide sui social

Il blocco di #SkinnyTok: fra restrizioni e nuove sfide sui social

Negli ultimi mesi, #SkinnyTok ha invaso TikTok con video allarmanti: ragazze scheletriche che esibiscono corpi emaciati e promuovono metodi pericolosi.
Il blocco di #SkinnyTok: fra restrizioni e nuove sfide sui social

Negli ultimi mesi, #SkinnyTok ha invaso TikTok con video allarmanti: ragazze scheletriche che esibiscono corpi emaciati, dispensano consigli su diete estreme e promuovono metodi pericolosi per perdere peso rapidamente. Il fenomeno ha raggiunto una viralità preoccupante tra i giovani, tanto da attirare l’attenzione delle istituzioni europee.

La Commissione europea e il regolatore francese Arcom hanno infatti segnalato la pericolosità di questi contenuti per la salute mentale degli utenti, spingendo TikTok a riconoscere il collegamento dell’hashtag con “contenuti malsani sulla perdita di peso” e decidere per il blocco globale.

I nuovi stratagemmi di camuffamento

Il blocco di #SkinnyTok non ha fermato la diffusione di contenuti pericolosi sulla piattaforma. I creator hanno rapidamente trovato alternative per aggirare le restrizioni, dando vita a nuovi hashtag apparentemente innocui ma altrettanto tossici.

Tra questi spicca #waste, un esempio perfetto di come vengano camuffati i messaggi nocivi. Il termine sfrutta la somiglianza fonetica con “waist” (girovita), creando un codice nascosto che permette di continuare a condividere immagini di corpi emaciati e suggerimenti estremi per la perdita di peso.

Questo gioco di parole dimostra quanto sia difficile controllare completamente fenomeni virali che si evolvono costantemente. I contenuti tossici continuano a circolare sotto nuove forme, mantenendo lo stesso impatto negativo sulla salute mentale dei giovani utenti.

Le misure adottate da TikTok

La piattaforma ha implementato diverse strategie per proteggere gli utenti più giovani dai contenuti dannosi. Tra le iniziative principali figura il blocco dei filtri bellezza per i minorenni, riconoscendo che questi strumenti possono alterare la percezione corporea.

TikTok ha inoltre inserito collegamenti diretti a organizzazioni di supporto per chi cerca contenuti legati a disturbi psicologici o fragilità emotive.

Il sistema di verifica dell’età si basa attualmente sull’autodichiarazione degli utenti durante la registrazione. Successivamente, l’intelligenza artificiale analizza comportamenti e contenuti pubblicati per individuare eventuali falsificazioni. Tuttavia, questo meccanismo presenta ancora significative lacune nell’identificazione degli utenti minorenni che dichiarano età superiori per accedere a contenuti riservati agli adulti.

Le sfide future per la regolamentazione

Il sistema attuale di verifica dell’età rappresenta una delle criticità più evidenti nella lotta ai contenuti tossici. TikTok, come Instagram, si affida all’autodichiarazione degli utenti, affidandosi poi all’intelligenza artificiale per identificare possibili falsificazioni attraverso l’analisi dei comportamenti.

Tuttavia, questo meccanismo presenta lacune significative che consentono ai minorenni di accedere facilmente a contenuti inappropriati. Meta ha proposto una soluzione innovativa, suggerendo che Apple e Google assumano un ruolo diretto nel controllo attraverso i loro store digitali.

Questa proposta potrebbe rappresentare una svolta decisiva per garantire verifiche più rigorose e capillari, creando un sistema di controllo distribuito che coinvolga tutti gli attori della filiera tecnologica.

Ti potrebbe interessare

Link copiato negli appunti