Via libera del Senato alla legge delega che affida al governo il compito di regolare i comportamenti, lasciando però intatto il nodo della proprietà concentrata in pochi oligopoli tecnologici
“Intelligenza artificiale” è un nome ingannevole. Non c’è intelligenza, ma calcolo statistico che imita il linguaggio; non c’è coscienza, ma algoritmi che riconoscono schemi nei dati. Eppure su questa formula si costruiscono promesse e paure, fiducie cieche e allarmi apocalittici.
In questo clima la politica italiana ha scelto la via della legge delega n. 1146/2025: una cornice che affida al Governo il compito di tradurre in regole alcuni principî generali: tutela dei dati personali, protezione dei minori, trasparenza degli algoritmi, organismi di controllo. È un passaggio inevitabile, perché lasciare il terreno digitale alle sole logiche di mercato significherebbe rinunciare del tutto al controllo pubblico. Ma mentre la norma definisce il quadro giuridico, la società vive problemi più urgenti: lavori precari, servizi che arrancano, diritti che si indeboliscono. In questo contesto l’IA non si presenta come destino, bensì come strumento ambiguo: può consolidare le diseguaglianze esistenti o aprire spazi di possibilità, a seconda delle scelte politiche che ne orienteranno l’uso.
Intelligenza artificiale: la legge italiana
Il Senato, il 17 settembre scorso, ha definitivamente approvato la legge delega n. 1146 del 2025 in materia di intelligenza artificiale. Non si tratta di un corpus di regole operative, ma di un provvedimento con cui il Parlamento stabilisce i principî e i criteri direttivi che il Governo dovrà tradurre, entro dodici mesi, in decreti legislativi. La norma elenca i campi prioritari: tutela dei dati personali, protezione dei minori, trasparenza degli algoritmi, creazione di organismi di vigilanza. Prevede che l’uso dell’IA in settori sensibili — giustizia, sanità, pubblica amministrazione — sia regolato con attenzione particolare, e richiama la responsabilità finale delle persone fisiche nelle decisioni che coinvolgono la vita dei cittadini.
Il fatto che sia una legge delega merita una considerazione politica. Il Parlamento ha fissato principî generali, ma ampi, lasciando al Governo margini significativi nella traduzione concreta. Più i criteri sono generici, più cresce il rischio che i decreti si pieghino a priorità tecniche o interessi di settore; più sono stringenti, più l’esecutivo resta vincolato a un mandato politico chiaro. In questo equilibrio si misura lo slittamento dei confini democratici: la scelta di rinviare alla fase attuativa questioni che avrebbero meritato un confronto parlamentare diretto.
Il testo approvato segna un passo importante: afferma che l’uso sociale del calcolo non può restare un affare privato e che occorre una cornice pubblica di regole. Resta da vedere se, nei decreti, quella cornice saprà trasformarsi in direzioni precise, capaci di incidere su lavoro, scuola, servizi e diritti.
Comparazione internazionale
L’Italia ha scelto la via della delega: una cornice normativa che rinvia al Governo la stesura delle regole operative. Mentre a Roma si approva una legge che indica soltanto i principî e i criteri generali, altrove la traiettoria è già più definita. L’Unione Europea con l’AI Act ha imposto un regolamento vincolante che entrerà in vigore dal 2026, con classificazioni di rischio e obblighi precisi. Gli Stati Uniti hanno lasciato all’iniziativa degli Stati e delle agenzie federali un mosaico di linee guida frammentate. La Cina ha scelto un controllo centralizzato, in cui la disciplina dell’IA è parte di una strategia di potere.
In questo confronto, l’Italia non appare come laboratorio né come avanguardia: si limita a predisporre una cornice in attesa di riempirla, più per non restare esclusa dal dibattito europeo che per definire una visione autonoma. La delega diventa così un segnale politico senza ancora una sostanza propria, una scelta che riflette la difficoltà di tradurre il lessico dell’innovazione in orientamenti giuridici concreti, dai quali soltanto in seguito potranno derivare effetti sociali misurabili.
Tre chiavi di lettura: utilità, limite, rischio
Guardare alla legge sull’intelligenza artificiale soltanto come a un dispositivo tecnico sarebbe riduttivo. C’è l’utilità, evidente nei processi che già oggi si semplificano: pratiche amministrative più veloci, supporti diagnostici in sanità, strumenti che ampliano l’accesso al sapere nelle scuole e nelle università. Ma accanto a questa promessa compare il limite strutturale: nonostante il nome, l’IA non pensa, non interpreta, non decide. È calcolo che simula linguaggio e riconosce pattern, e che proprio per questo rischia di ridurre la complessità delle esperienze umane a previsioni probabilistiche.
I centri decisionali sono negli oligopoli tecnologici statunitensi e cinesi che possiedono dati, server, modelli, brevetti. Parlamenti e governi europei discutono di trasparenza e regole di utilizzo, ma restano marginali sulla questione centrale: la proprietà delle infrastrutture e delle conoscenze. Se non si affronta questo nodo, la politica potrà continuare a scrivere norme di cornice, ma non intaccherà la logica che concentra potere e ricchezza in pochi soggetti globali. Così la distanza tra chi produce tecnologia e chi ne subisce gli effetti rischia di diventare il segno del nostro tempo
Dove utilità e limite si incontrano, nasce il rischio. L’adozione su larga scala può rafforzare tendenze già in atto: forme di lavoro sempre più frammentate, sorveglianza invisibile nella vita quotidiana, concentrazione del potere nelle mani di chi controlla dati e infrastrutture. Non è un’eventualità remota, ma una dinamica che accompagna l’uso sociale delle tecnologie da decenni.
Dentro questa cornice la legge delega rappresenta un’occasione e un pericolo: occasione perché sancisce che il calcolo non può restare territorio esclusivo dei privati, pericolo perché, se i decreti resteranno generici o timidi, i margini verranno occupati da chi già domina il mercato. È in questo equilibrio fragile che si misura il valore politico della normativa: non nelle enunciazioni, ma nella capacità di incidere sulla vita delle persone.
Società e politica
L’intelligenza artificiale non entra in società come una novità neutra. Si innesta in un tessuto già segnato da diseguaglianze, precarietà lavorativa, servizi pubblici sotto pressione. La legge delega promette di regolamentarne l’uso, ma il nodo vero è politico: decidere se l’innovazione debba servire a consolidare assetti esistenti o a ridurre le fratture che attraversano il Paese.
Nella scuola, l’IA viene evocata come supporto alla didattica, eppure le aule continuano a svuotarsi per effetto della crisi demografica e del calo di risorse. Nel lavoro, le piattaforme digitali accelerano i processi, ma la produttività si accompagna a contratti instabili e a mansioni sempre più intermediarie. Nei servizi pubblici, si parla di efficienza, mentre cresce la distanza tra chi ha competenze e accesso tecnologico e chi ne resta escluso.
La politica ha accolto la legge delega come segnale di modernità, ma il rischio è che la narrazione del progresso inevitabile diventi un alibi. Regolare l’IA non significa soltanto stabilire criteri tecnici: significa scegliere quali interessi difendere, quali diritti rafforzare, quali costi redistribuire. Senza questa chiarezza, la disciplina giuridica rischia di restare vetrina, incapace di incidere là dove la tecnologia tocca la vita quotidiana.
Metariflessioni artificiali
L’etichetta «intelligenza artificiale» genera consensi ed equivoci: indica potenza tecnica ma suggerisce capacità che il calcolo non possiede. Dietro i modelli si trovano algoritmi addestrati su dati, non esperienze incarnate; il risultato è uno strumento che produce risposte plausibili, non giudizi ponderati. Ricordarlo non è un dettaglio semantico ma una condizione politica: la differenza tra descrivere e nominare influenza le aspettative collettive.
I limiti sono strutturali. I sistemi automatici operano per pattern e probabilità; riproducono i pregiudizi presenti nei dati e riflettono le scelte progettuali di chi li costruisce. Non esistono meccanismi intrinseci di comprensione morale: le decisioni di valore restano appannaggio delle persone e delle istituzioni che ordinano l’uso della tecnologia. Confondere la simulazione del linguaggio con la capacità di giudizio sposta responsabilità che non vanno delegate.
Il vero punto critico non è la macchina in astratto, ma le pratiche sociali che attivano e rendono sistemica la sua presenza. Usata per accelerare processi amministrativi, l’IA può aumentare l’efficienza; usata come sostituto di relazioni educative o decisionali, rischia di impoverire diritti e tutele. Il mercato e la concentrazione delle infrastrutture accentuano questi effetti: non si tratta soltanto di errori occasionali ma di dinamiche strutturali.
Per questo le metariflessioni devono assumere forma normativa e pratica. Occorre che i principî enunciati nella delega si traducano in obblighi concreti: verifiche di impatto sociale ex ante, trasparenza sulle fonti dei dati e sugli strumenti, salvaguardie per i soggetti più vulnerabili, procedure di responsabilità che non si limitino a sanzioni formali. Senza queste precauzioni, la retorica della novità coprirà trasformazioni che aggravano disuguaglianze già presenti.
Conclusione
Come la televisione negli anni cinquanta, come internet negli anni novanta, anche l’intelligenza artificiale ha fatto irruzione senza chiedere permesso. La politica arriva sempre dopo: regolamenta a posteriori, con il fiato corto, con visioni spesso opache e con l’andatura incerta di chi rincorre innovazioni che non riesce a governare. Ogni volta l’argomento viene presentato come novità assoluta, e ogni volta lo schema si ripete: un potere economico che avanza rapido, istituzioni che inseguono.
Intanto la sostanza si sposta altrove. I centri decisionali non sono in Europa, ma negli oligopoli tecnologici statunitensi e cinesi che possiedono dati, server, modelli, brevetti. Qui si concentra la vera leva del potere. Parlamenti e governi europei continuano a discutere di trasparenza e di regole di utilizzo, ma restano marginali sulla questione centrale: la proprietà delle infrastrutture e delle conoscenze.
La legge delega italiana si inserisce in questa traiettoria: lavora sulla forma, senza incidere sulla sostanza. Non è un errore, è una scelta che riflette i rapporti di forza. Se non si affronta il nodo della proprietà, la politica potrà continuare a scrivere norme di cornice, ma non intaccherà la logica che concentra potere e ricchezza in pochi soggetti globali. La distanza tra chi produce tecnologia e chi ne subisce gli effetti rischia così di diventare il segno del nostro tempo. Nella sostanza, il diritto regola i comportamenti, il potere si concentra altrove: è questa la frattura che la politica non è più in grado di ricomporre.