C’è una frase che circola da anni nei corridoi delle istituzioni europee e nei policy paper di think tank internazionali: “gli Stati Uniti innovano, la Cina produce, l’Europa regola”. È una battuta, certo, ma come spesso accade nelle semplificazioni, contiene un nucleo di verità. Nel campo delle tecnologie digitali, l’Unione Europea non ha (ancora) prodotto una “Google europea”, né ospita i giganti dell’e-commerce o dell’intelligenza artificiale. Tuttavia, in un’area del mondo in cui la sovranità non passa solo dalla produzione, l’UE ha trovato la sua leva strategica in un terreno apparentemente meno spettacolare, ma profondamente strutturale: la regolazione.
In un’epoca in cui i dati personali sono diventati una nuova valuta globale, gli algoritmi decidono cosa leggiamo e vediamo, e l’intelligenza artificiale rischia di trasformare lavoro, politica e società, l’Europa ha risposto con una serie di strumenti normativi senza eguali per coerenza, ambizione e visione sistemica. Questa scelta, consapevole e rivendicata, ha dato forma a un nuovo ruolo per l’UE: quello del legislatore etico del digitale globale.
Ma come si è arrivati a questo punto? E quali sono le implicazioni – positive e negative – di questo modello?
Dal GDPR all’AI Act: una cronologia della svolta normativa
L’avventura normativa dell’Unione Europea nel digitale comincia con una delle regolazioni più influenti mai prodotte da un ente sovranazionale: il General Data Protection Regulation (GDPR). Entrato in vigore nel 2018, il GDPR ha imposto nuovi standard globali per la gestione dei dati personali: consenso esplicito, diritto all’oblio, portabilità dei dati, notifica obbligatoria delle violazioni. Nonostante l’iniziale opposizione di molte multinazionali, il GDPR ha stabilito una nuova grammatica giuridica della privacy, e il suo impatto è andato ben oltre i confini europei. Secondo il World Economic Forum e il “Politico”, oltre 120 Paesi si sono ispirati al GDPR nella stesura delle proprie normative sulla protezione dei dati personali.
La seconda grande tappa è rappresentata dalla “digital package” del 2020–2024, culminata nell’approvazione di due strumenti cardine: il Digital Services Act (DSA) e il Digital Markets Act (DMA). Il primo si concentra sulla responsabilità delle piattaforme online: obbliga ad agire contro contenuti illegali, a fornire trasparenza sugli algoritmi e a collaborare con ricercatori indipendenti. Il secondo, invece, mira a regolare il potere delle big tech etichettandole come “gatekeeper” e imponendo loro obblighi di apertura e interoperabilità.
Nel frattempo, prende forma anche una visione più ampia sul ruolo dell’Unione come “architetto dell’etica digitale”. Nel 2021 viene lanciato il progetto dell’AI Act, il primo regolamento globale sull’intelligenza artificiale. Il testo adotta un approccio basato sul rischio, distinguendo tra sistemi ad alto, medio e basso impatto. Le tecnologie vietate – come il riconoscimento facciale in tempo reale negli spazi pubblici – sono bandite, mentre quelle ad alto rischio devono rispettare standard elevati di tracciabilità, trasparenza e supervisione umana.
Per rafforzare l’adesione spontanea al nuovo quadro regolatorio, la Commissione ha anche promosso l’AI Pact, una piattaforma volontaria alla quale hanno aderito più di 200 imprese, da Google a Airbus, impegnandosi ad anticipare i requisiti dell’AI Act.
La normativa europea si è poi estesa alla governance dei dati, con il Data Governance Act (DGA): un regolamento pensato per creare spazi dati comuni europei in settori strategici come sanità, mobilità ed energia, facilitando la condivisione e il riutilizzo dei dati tra pubblico e privato in sicurezza e con rispetto per i diritti fondamentali.
Infine, nel 2025, la Commissione lancia l’iniziativa AI Continent, che prevede la costruzione di cinque gigafabbriche dell’intelligenza artificiale e un massiccio investimento infrastrutturale da 20 miliardi di euro. Il messaggio è chiaro: la regolazione non è solo vincolo, ma anche leva per costruire un ecosistema europeo competitivo, sostenibile e sovrano.
Regolare è potere?
A distanza di quasi un decennio dal GDPR, ci troviamo davanti a una questione centrale: l’Europa ha scelto il ruolo di regolatore globale delle tecnologie digitali. Ma è una strategia vincente? Da un lato, questa scelta ha dato all’Unione una voce normativa potente, riconosciuta e, in molti casi, imitata. Dall’altro lato, cresce la preoccupazione che questa stessa vocazione alla regolazione si traduca in eccessi burocratici, in un ecosistema poco attraente per l’innovazione e, soprattutto, in una dipendenza crescente da tecnologie sviluppate altrove.
L’Europa è un legislatore, ma non un produttore. Un arbitro, ma non una squadra. E in un mondo dominato dalla logica delle piattaforme e degli ecosistemi chiusi, questo squilibrio può diventare un limite strutturale.