C’è un momento, nelle grandi trasformazioni tecnologiche, in cui il diritto smette di essere solo un insieme di norme e diventa qualcosa di più sfuggente: un processo, un campo di forze, una negoziazione continua. L’intelligenza artificiale, nella sua fase attuale – quella che accompagna l’avvicinarsi del 2026, snodo cruciale per l’operatività dell’AI Act – sembra essere esattamente in questo momento.
Il punto non è più, o non è solo, come classificare i sistemi di AI in base al rischio. Il vero baricentro si è spostato altrove: sui modelli general-purpose, i cosiddetti foundation models. Non perché siano più visibili, ma perché sono più profondi. Sono l’infrastruttura cognitiva su cui si costruisce tutto il resto. E, come ogni infrastruttura, sfuggono alle categorie giuridiche tradizionali.
Le notizie degli ultimi mesi lo confermano con una chiarezza che non è più possibile ignorare. L’azione della Commissione europea, attraverso l’AI Office, si sta concentrando proprio su questi modelli, soprattutto su quelli qualificati – in modo ancora instabile – come portatori di “rischio sistemico”. Allo stesso tempo, il cuore operativo della regolazione non è più il testo dell’AI Act, ma il processo di definizione del Code of Practice sui GPAI, ancora oggetto di negoziazione avanzata tra istituzioni, industria e comunità tecnica.
È qui che emerge il primo dubbio, e non è un dubbio marginale. Se la disciplina effettiva dei modelli viene costruita attraverso codici multi-stakeholder, non pienamente normativi ma sostanzialmente necessari per dimostrare la conformità, dove si colloca oggi la fonte del diritto? Siamo ancora dentro una logica di produzione pubblica della norma, o stiamo assistendo alla formazione di una normatività ibrida, in cui il diritto si limita a predisporre la cornice e lascia al livello tecnico-industriale la definizione concreta dei contenuti?
La questione si complica ulteriormente se si guarda alla dimensione geopolitica. Le pressioni delle grandi piattaforme e degli attori globali non sono più un elemento esterno alla regolazione: ne sono parte integrante. Il ritardo e la complessità nell’elaborazione del Code of Practice, così come le tensioni sul perimetro degli obblighi per i modelli più avanzati, mostrano che la regolazione dei foundation models è anche – e forse soprattutto – una negoziazione sul potere.
Non è un caso che la categoria di “rischio sistemico” sia ancora in via di definizione. Come si misura il rischio di un modello che evolve, che viene continuamente aggiornato, che genera applicazioni imprevedibili? Il diritto, qui, non si confronta con un oggetto stabile, ma con un processo. E questo introduce una frattura profonda rispetto alla tradizione giuridica, costruita su categorie relativamente fisse.
Ma c’è un ulteriore elemento, forse il più rilevante. La regolazione dei modelli general-purpose interviene direttamente nel momento della produzione dell’intelligenza: nei dati di training, nelle architetture, nei meccanismi di sicurezza. Non si limita a governare gli effetti, ma entra nel cuore del processo cognitivo artificiale. In questo senso, i foundation models non sono semplicemente oggetti di regolazione: sono il luogo in cui si definisce la distribuzione del potere cognitivo nella società digitale.
Ed è qui che il dubbio diventa inevitabilmente costituzionale. Se le regole che determinano il funzionamento di queste infrastrutture vengono elaborate in spazi ibridi, tra pubblico e privato, tra diritto e tecnica, tra Europa e attori globali, possiamo ancora parlare di un costituzionalismo nel senso classico del termine? O dobbiamo riconoscere che sta emergendo una nuova “costituzione materiale” dell’intelligenza artificiale, non scritta nei testi normativi, ma incorporata negli standard, nei codici e nelle pratiche industriali?
L’AI Act, da questo punto di vista, non è la fine del processo, ma il suo inizio. È la cornice entro cui questa costituzione invisibile sta prendendo forma. Ma proprio per questo, la domanda decisiva non è se l’Europa riuscirà a regolare l’intelligenza artificiale. La domanda è se riuscirà a governare il luogo in cui le regole si formano davvero. Perché, come spesso accade nelle grandi trasformazioni tecnologiche, il rischio non è che il diritto arrivi troppo tardi. È che, arrivando, trovi che le regole fondamentali sono già state scritte altrove.
*Professore di Diritto costituzionale e Regolamentazione dell’Intelligenza artificiale (Università Bocconi), Founder Pollicino AIdivisory