Bruxelles, 10 gennaio 2026 – La Commissione europea non molla la presa sulle immagini generate dall’intelligenza artificiale nei social, nemmeno dopo le ultime novità annunciate da X (ex Twitter) sul sistema Grok. La questione è tornata al centro del dibattito durante il briefing con la stampa, quando il portavoce Thomas Regnier ha risposto alle domande sulle nuove restrizioni di Elon Musk.
Commissione europea: “Sulle immagini AI non cambiamo idea”
“Abbiamo visto le modifiche di X su Grok. Ma il fatto che la creazione e la modifica delle immagini siano ora riservate agli abbonati non cambia la nostra posizione. Che sia a pagamento o gratis, non vogliamo immagini di questo tipo”, ha detto chiaramente Regnier. La risposta arriva dopo che X ha deciso di permettere queste funzioni solo agli utenti con un abbonamento, in seguito alle polemiche degli ultimi giorni.
Grok nel mirino per i deepfake sessuali
La piattaforma di Elon Musk è finita sotto accusa perché alcuni utenti hanno usato Grok per creare deepfake a sfondo sessuale. Immagini manipolate che hanno acceso l’allarme su più fronti, sia etico che legale. Per questo, X ha stretto le maglie: solo chi paga potrà generare o modificare immagini. Ma per la Commissione europea, questa non è una soluzione sufficiente.
Fonti comunitarie spiegano che il pericolo di vedere contenuti falsi creati con l’IA resta alto, anche limitando l’accesso a pochi utenti. “Non è una questione di numeri o di modello di business”, ha detto un funzionario a fine briefing, “ma di proteggere i cittadini e rispettare le leggi europee”.
Il Digital Services Act mette paletti chiari
Tutto questo si muove dentro il quadro delle nuove regole europee sui servizi digitali. Il Digital Services Act (DSA), entrato in vigore nel 2024, impone alle grandi piattaforme di essere trasparenti, moderare i contenuti e proteggere gli utenti da rischi seri, come la diffusione di deepfake e altre immagini manipolate. “Le piattaforme devono agire per fermare la circolazione di contenuti dannosi, a prescindere da come si accede ai servizi”, ha sottolineato Regnier.
La Commissione ha già iniziato a parlare con i big della tecnologia per controllare che le regole vengano rispettate. Se qualcuno trasgredisce, rischia multe pesanti, fino al 6% del fatturato globale. Un messaggio chiaro: Bruxelles non vuole scuse.
Occhi puntati sul futuro
Nel quartier generale della Commissione, in Rue de la Loi, si resta in allerta. “Stiamo seguendo da vicino l’evoluzione degli strumenti basati sull’intelligenza artificiale”, ha confidato un altro portavoce. L’attenzione è alta, soprattutto con le elezioni europee alle porte. Il timore è che deepfake e contenuti falsi possano manipolare l’opinione pubblica o spargere disinformazione.
Da parte sua, X non ha aggiunto altro dopo l’annuncio delle restrizioni. Fonti vicine alla società spiegano che il team legale sta valutando come le norme europee influenzeranno le funzionalità per gli utenti del Vecchio Continente.
Il nodo della responsabilità resta aperto
Il confronto sulla responsabilità delle piattaforme digitali nel gestire i contenuti degli utenti non si chiude. “Non basta limitare l’accesso: serve un controllo vero e trasparente”, ha ribadito Regnier davanti ai giornalisti. Solo così, spiegano fonti europee, si potrà davvero parlare di tutela per gli utenti dell’Unione.
Nel frattempo, la Commissione invita tutte le piattaforme attive in Europa a rivedere le proprie regole sull’intelligenza artificiale e a collaborare con le autorità nazionali per far rispettare le leggi. Un percorso tutt’altro che semplice, che mette insieme innovazione tecnologica e la necessità di difendere i diritti fondamentali dei cittadini europei.










