Dopo X e Grok, Ofcom apre un'indagine sulla sicurezza dei bambini su Telegram
L'ente di regolamentazione della sicurezza online del Regno Unito ha avviato un'indagine formale su Telegram ai sensi dell'Online Safety Act, esaminando se la piattaforma di messaggistica abbia rispettato i propri doveri di proteggere gli utenti del Regno Unito da materiale di abuso sessuale infantile. È l'azione di enforcement più significativa di Ofcom contro una grande piattaforma di messaggistica fino ad oggi.
L'ente di regolamentazione della sicurezza online del Regno Unito, Ofcom, ha avviato un'indagine formale su Telegram ai sensi dell'Online Safety Act 2023, esaminando se la piattaforma di messaggistica abbia soddisfatto i propri doveri legali di proteggere gli utenti del Regno Unito da materiale di abuso sessuale infantile (CSAM).
L'indagine, riportata da Reuters, segna un'escalation significativa nell'applicazione della legge da parte di Ofcom contro uno dei servizi di messaggistica più utilizzati al mondo, e una piattaforma che da tempo è sotto scrutinio per il suo approccio ai contenuti illegali.
L'indagine segue il modello di enforcement stabilito da Ofcom ai sensi dell'Online Safety Act, che richiede ai servizi di messaggistica e di ricerca di valutare e mitigare i rischi che gli utenti del Regno Unito possano imbattersi in contenuti illegali, incluso il CSAM, e di rimuoverli rapidamente quando identificati.
Ofcom ha il potere di multare le aziende per un importo maggiore di 18 milioni di sterline o il 10% del fatturato mondiale qualificato per non conformità, e nei casi di grave non conformità continua può richiedere a un tribunale misure di interruzione dell'attività, che potrebbero includere l'obbligo per i fornitori di servizi Internet di bloccare una piattaforma nel Regno Unito.
L'apertura di un'indagine formale non costituisce di per sé una constatazione di illeciti. Nel processo previsto dalla legge, Ofcom prima raccoglie e analizza le prove per determinare se si sia verificata una violazione. Se conclude che si è verificato un fallimento nella conformità, emette una decisione provvisoria all'azienda, che ha poi l'opportunità di rispondere completamente prima che venga presa una decisione finale.
Il processo richiede tipicamente diversi mesi. Lo stesso framework è attualmente applicato nell'indagine in corso di Ofcom su X, avviata a gennaio 2026 dopo segnalazioni che il suo chatbot Grok AI veniva utilizzato per generare e distribuire immagini sessualmente esplicite di bambini.
La relazione di Telegram con i regolatori del Regno Unito è stata in evoluzione. Solo a dicembre 2024, la piattaforma ha aderito all'Internet Watch Foundation (IWF), un'organizzazione con sede nel Regno Unito che identifica e rimuove il CSAM, e si è impegnata a utilizzare gli strumenti di rilevamento dell'IWF in parti pubbliche della piattaforma, inclusa la tecnologia di hash-matching per identificare il CSAM noto e strumenti per bloccare contenuti di abuso generati da AI.
La revisione annuale di Ofcom di marzo 2026 ha riconosciuto che Telegram, insieme a X, Discord e Reddit, aveva introdotto controlli di età in risposta all'Online Safety Act.
La nuova indagine rappresenta quindi un cambiamento: Ofcom, nonostante i progressi precedenti, ha concluso che ci sono motivi sufficienti per avviare un'indagine formale su se la conformità di Telegram ai doveri specifici relativi al CSAM ai sensi della legge sia stata adeguata.
La tensione al centro del caso Telegram è quella che ha definito i dibattiti sulla piattaforma per anni. L'architettura di Telegram è divisa: i canali e i gruppi pubblici sono più accessibili agli strumenti di rilevamento esterni, ma la messaggistica privata crittografata della piattaforma, la caratteristica che l'ha resa popolare tra attivisti, giornalisti e dissidenti in stati autoritari, crea un limite strutturale su quale moderazione dei contenuti sia possibile.
L'NSPCC, rispondendo alla partnership di Telegram con l'IWF a dicembre 2024, ha notato direttamente la distinzione: accogliendo il passo sui contenuti pubblici mentre sosteneva che "non dovrebbe esserci alcuna parte del servizio in cui i trasgressori possano agire senza essere rilevati."
Le disposizioni dell'Online Safety Act sulla messaggistica crittografata end-to-end rimangono la parte più contestata del regime, con Signal che aveva precedentemente avvertito che si sarebbe ritirata dal Regno Unito se costretta a scansionare messaggi privati.
Ofcom ha segnalato che attualmente non ha intenzione di imporre la scansione lato client.
L'indagine arriva in un periodo di pressione normativa sostenuta sulle piattaforme di messaggistica e social media in tutto il Regno Unito.
Ofcom ha ora aperto indagini su quasi 100 servizi da quando l'Online Safety Act è entrato in vigore nel 2025, ha emesso quasi una dozzina di multe e a marzo 2026 ha scritto direttamente a sei delle più grandi piattaforme, Facebook, Instagram, Roblox, Snapchat, TikTok e YouTube, richiedendo prove di ulteriori miglioramenti nella sicurezza dei bambini entro il 30 aprile.
L'indagine su Telegram aggiunge una grande piattaforma di messaggistica a un elenco di enforcement che, fino ad oggi, si è concentrato maggiormente su siti di pornografia e bacheche di immagini di nicchia.
Telegram non ha immediatamente risposto a una richiesta di commento al momento del rapporto di Reuters. Ofcom ha dichiarato che fornirà aggiornamenti sull'indagine il prima possibile.
Altri articoli
Dopo X e Grok, Ofcom apre un'indagine sulla sicurezza dei bambini su Telegram
Ofcom ha avviato un'indagine formale su Telegram ai sensi della UK Online Safety Act, esaminando la conformità della piattaforma agli obblighi di proteggere gli utenti da CSAM.
