L'X di Musk si impegna con il regolatore britannico sulla hate speech, con l'indagine Grok ancora aperta.
La piattaforma di Elon Musk ha accettato di esaminare i post di odio e terrorismo illegali entro un giorno in media, di limitare i gruppi vietati nel Regno Unito e di riferire trimestralmente all'ente regolatore. Un'indagine separata di Ofcom continua.
X ha concordato un insieme di impegni riguardanti il discorso d'odio illegale e i contenuti terroristici con Ofcom, l'ente regolatore delle comunicazioni britannico, ha dichiarato venerdì, dopo mesi di pressioni che sono aumentate durante l'autunno e l'inverno.
In base all'accordo, la piattaforma di Elon Musk esaminerà i post sospetti di odio e terrorismo illegali entro 24 ore in media, valuterà almeno l'85% entro 48 ore e presenterà dati sulle prestazioni trimestrali all'ente regolatore nel corso del prossimo anno.
La piattaforma ha anche promesso di limitare l'accesso nel Regno Unito agli account gestiti da o per conto di organizzazioni vietate dalla legge britannica sul terrorismo e di coinvolgere esperti esterni per rivedere un flusso di segnalazione che i gruppi della società civile hanno ripetutamente descritto come opaco.
Il 💜 della tecnologia dell'UE Gli ultimi rumori dalla scena tecnologica dell'UE, una storia del nostro saggio fondatore Boris e alcune opere d'arte AI discutibili. È gratuito, ogni settimana, nella tua casella di posta. Iscriviti ora! La formulazione è importante qui, perché il contenuto segnalato non ricevuto o non trattato chiaramente è stato il fulcro della maggior parte dei reclami presentati contro X a Ofcom nell'ultimo anno.
Suzanne Cater, direttrice dell'applicazione della sicurezza online di Ofcom, ha dichiarato in una nota che "i contenuti terroristici e il discorso d'odio illegale persistono su alcuni dei più grandi siti di social media" e che il divario è diventato "di particolare importanza nel Regno Unito a seguito di una serie di recenti crimini motivati dall'odio subiti dalla comunità ebraica del paese".
Imran Ahmed del Center for Countering Digital Hate ha affermato che gli impegni sono seguiti da una "campagna sostenuta" dopo l'attacco dello scorso anno alla sinagoga di Heaton Park vicino a Manchester.
Il Regno Unito ha avuto una serie difficile di incidenti da assorbire. L'attacco di Heaton Park è stato seguito da un incidente mortale nel nord di Londra il mese scorso che la polizia sta trattando come terrorismo, e il monitoraggio dello stesso CCDH dopo l'attacco di Golders Green ha documentato quello che ha descritto come un'inondazione di post antisemiti su X (il dataset sottostante del CCDH è qui).
I nuovi impegni non affrontano direttamente quegli incidenti. Stabiliscano il pavimento procedurale sotto di essi.
La ricezione è stata mista. Danny Stone, amministratore delegato dell'Antisemitism Policy Trust, ha descritto il pacchetto come "un buon inizio" ma ha affermato che X sta ancora "fallendo in così tanti aspetti" nel combattere il razzismo.
Ofcom stessa è stata attenta a notare che la sua indagine formale su X, compresi i sistemi dell'azienda per gestire contenuti illegali e le domande sollevate dal suo assistente AI Grok, rimane aperta. L'accordo di venerdì è un impegno negoziato, non un accordo.
C'è una traccia separata di Grok che corre in parallelo. Ofcom sta esaminando come X gestisce le immagini sessualizzate generate dall'AI create con il chatbot, e all'inizio di questo mese X ha limitato le funzionalità di modifica delle immagini di Grok agli utenti a pagamento dopo una controversia sui deepfake e una minaccia di divieto nel Regno Unito. Gli impegni di venerdì non risolvono quel tema. Si affiancano ad esso.
Il contesto più ampio è familiare a chiunque segua il pipeline regolatorio della piattaforma. La Commissione Europea ha un procedimento aperto per verificare se X stia fallendo nel contenere il discorso d'odio, e l'azienda è la più grande fonte singola di disinformazione nel monitoraggio della Commissione stessa. I regolatori australiani e di Singapore hanno insistito su questioni adiacenti. Il patto del Regno Unito si colloca all'interno di una coda piuttosto che alla fine di una.
Sostanzialmente, i nuovi impegni sono l'espressione operativa del quadro della Legge sulla Sicurezza Online che è diventata legge nel 2023, con le piattaforme più grandi ora obbligate a rimuovere rapidamente contenuti illegali o affrontare multe fino al 10% del fatturato globale.
L'impegno di revisione di 24 ore è il tipo di metrica misurabile che l'ente regolatore ha voluto su carta. Il 85%-entro-48-ore è un numero calcolato affinché Ofcom possa auditarlo.
I dati trimestrali, forniti nel corso del prossimo anno, saranno il primo dataset granulare che l'ente regolatore ha su se gli impegni da parte della piattaforma spostino effettivamente la rimozione di contenuti illegali nella direzione che la legge intendeva.
Другие статьи
L'X di Musk si impegna con il regolatore britannico sulla hate speech, con l'indagine Grok ancora aperta.
X ha concordato con Ofcom di esaminare i post di odio e terrorismo illegali entro 24 ore in media e di riportare trimestralmente. Un'indagine separata nel Regno Unito su X, inclusa Grok, rimane aperta.
