CulturaEuropa

TikTok e contenuti dannosi: le piattaforme social vanno oltre i limiti del DSA.

Andando oltre la mancanza di monitoraggio dei cellulari dei minorenni da parte dell’87% dei genitori europei, i contenuti illegali e pericolosi nelle piattaforme social continuano a influenzare la qualità della vita dei giovani in Europa anche grazie alle inefficaci misure di moderazione dei social dell’Ue.

Nonostante l’entrata in vigore del Digital Services Act (DSA), infatti, la promozione del suicidio e dell’autolesionismo è ben lontana dall’essere risolta, specialmente su TikTok. La denuncia arriva dall’eurodeputato Axel Voss (PPE), che ha presentato un’interrogazione scritta alla Commissione Europea per chiedere chiarimenti sull’efficacia delle misure di moderazione della piattaforma e su come l’UE intenda prevenire la diffusione di questo tipo di materiale.

Secondo Voss, diversi specialisti della salute mentale in Germania hanno segnalato che tali contenuti non vengono rimossi nemmeno dopo essere stati segnalati come illegali. Al contrario, l’algoritmo di TikTok amplifica la loro visibilità nella sezione For You, esponendo gli utenti, inclusi i più giovani, a rischi psicologici gravi.

In risposta, la Commissione ha ribadito che il DSA impone obblighi di diligenza alle piattaforme online, con misure più stringenti per i Very Large Online Platforms (VLOPs) come TikTok. Tra i requisiti previsti dal regolamento, le piattaforme devono gestire tempestivamente le segnalazioni di contenuti illegali e fornire motivazioni chiare per le decisioni di moderazione, pubblicandole nella DSA Transparency Database. Inoltre, le VLOPs hanno l’obbligo legale di valutare e mitigare i rischi sistemici legati alla diffusione di contenuti dannosi per la salute fisica e mentale degli utenti.

Tuttavia, la Commissione ha precisato di non avere competenza diretta per moderare i contenuti online o ordinare la rimozione di specifici post. Ciò nonostante, l’istituzione ha avviato, il 19 febbraio 2024, un’indagine formale su TikTok, sospettata di non aver valutato e ridotto in modo adeguato i rischi legati all’esposizione algoritmica a contenuti dannosi, fenomeno noto come “rabbit hole effect”.

L’inchiesta su TikTok è attualmente prioritaria e si inserisce in un’indagine più ampia dell’UE sugli effetti negativi dei social media sul benessere degli utenti, annunciata nelle Linee guida politiche dell’Unione. L’obiettivo è garantire un ambiente digitale più sicuro, rafforzando l’applicazione del DSA e la responsabilità delle piattaforme nella tutela della salute mentale degli utenti.

foto Gerd Altmann da Pixabay.com