La Commissione Europea ha imposto una multa da 140 milioni di euro a X (ex Twitter), accusando la piattaforma di violare il Digital Services Act attraverso un sistema di verifica “ingannevole”, poca trasparenza nella pubblicità e scarsa collaborazione con ricercatori nel campo della disinformazione.
È la prima applicazione realmente pesante del DSA a una piattaforma globale e rischia di diventare un precedente politico, prima ancora che tecnico.
Ma questo caso si inserisce in un contesto più ampio: il rapporto sempre più complesso tra istituzioni europee e libertà di espressione online.
X è oggi la piattaforma più aperta al free speech ed è qui che iniziano le tensioni
Con Musk, X ha adottato una politica di moderazione minima: meno filtri, meno censura preventiva, maggiore spazio alle opinioni controverse.
È un modello in controtendenza rispetto alla visione europea, fondata su un controllo più rigido dell’ambiente informativo.
Proprio questo rende inevitabile la domanda:
la sanzione nasce davvero per tutelare gli utenti o perché una piattaforma troppo libera diventa politicamente scomoda?

Le autorità europee parlano di sicurezza, trasparenza e protezione dall’abuso.
Ma quando una piattaforma che difende esplicitamente il free speech diventa il bersaglio principale del nuovo apparato normativo, il dubbio che la posta in gioco sia più ampia è legittimo.
Il precedente di Chat Control: un dibattito che ritorna
Il caso non arriva in un vuoto politico.
Negli ultimi anni, l’UE ha proposto e in parte approvato, misure come Chat Control, che prevedevano il monitoraggio automatico dei messaggi privati per individuare abusi, con strumenti tecnici che molti hanno definito “sorveglianza di massa preventiva”.
Nonostante le revisioni, il principio rimane:
un crescente interesse istituzionale nel regolare, filtrare e sorvegliare lo spazio digitale, anche in aree che un tempo erano considerate inviolabili.
In questo quadro, la multa a X appare come un ulteriore tassello: non un provvedimento isolato, ma parte di una strategia più ampia che mira a stabilire chi controlla il flusso dell’informazione e quali piattaforme devono adeguarsi.
Chi decide cosa è “sicuro”, cosa è “ingannevole” e cosa è “accettabile”?
È qui si apre il vero interrogativo.
Ogni legge che riguarda la moderazione dei contenuti dal DSA a Chat Control parte da un presupposto: Qualcuno deve definire cosa costituisce un rischio per il cittadino.
Ma chi stabilisce i confini della verità?
Chi decide quale contenuto va rimosso e quale no?
E soprattutto: quanto potere può concentrare un’autorità politica sulla gestione della comunicazione digitale, senza che ciò diventi una forma di controllo?
Le conclusioni
La multa a X rappresenta una difesa necessaria della sicurezza online?
Probabilmente no, è solo un altro passo verso un ecosistema informativo sempre più centralizzato, dove la libertà di parola dipende dall’approvazione delle istituzioni.
È un atto di trasparenza o un messaggio politico?
Uno strumento di tutela o un modo per riportare sotto controllo una piattaforma troppo libera?Non c’è una risposta unica.
E forse è proprio questa ambiguità a rendere la vicenda così significativa.

