AI Act e Legge N. 132/2025: come cambia l’attività professionale

AI Act e Legge N 1322025
Tabella dei Contenuti

A cura di Giovanni Masi

Contesto normativo tra Unione europea e ordinamento italiano

Con l’entrata in vigore, il 10 ottobre 2025, della legge 23 settembre 2025, n. 132, l’Italia ha fissato un primo perimetro nazionale per ricerca, sviluppo e uso dei sistemi di intelligenza artificiale, chiarendo che l’interpretazione e l’applicazione delle nuove regole devono avvenire in coerenza con il regolamento (UE) 2024/1689, noto come AI Act. La scelta di fondo è netta. La disciplina italiana non vuole duplicare gli obblighi europei, ma accompagnarne l’attuazione, individuare autorità nazionali, introdurre regole settoriali e soprattutto preparare il terreno a decreti legislativi di adeguamento.

Nel frattempo, il quadro europeo procede con tappe progressive. L’AI Act è entrato in vigore il 1° agosto 2024 e diventa pienamente applicabile dal 2 agosto 2026, con scadenze anticipate per alcune parti. Dal 2 febbraio 2025 si applicano le disposizioni generali e i divieti, insieme all’obbligo di “AI literacy”, mentre dal 2 agosto 2025 sono operative le regole per i modelli di AI di uso generale e i pilastri di governance. Questo calendario è essenziale per capire come un professionista debba organizzare la propria attività oggi, a gennaio 2026, quando coesistono norme già operative e obblighi che si consolidano nel corso del 2026.

Cosa cambia subito per chi esercita una professione intellettuale

La legge n. 132/2025 contiene una disposizione breve ma molto incisiva sulle professioni intellettuali. Il punto chiave è che l’intelligenza artificiale può essere utilizzata solo per attività strumentali e di supporto alla prestazione, con prevalenza del lavoro intellettuale che caratterizza l’opera professionale. Non è una formula retorica. È un criterio di comportamento che incide sul modo in cui si progetta il servizio, si documenta il processo e si gestisce il rapporto con il cliente.

In concreto, per un avvocato, un commercialista, un consulente del lavoro, un ingegnere, un architetto o un professionista della consulenza aziendale, la norma spinge verso un modello “human-in-the-loop” sostanziale. L’AI può accelerare analisi preliminari, estrazione di informazioni, supporto alla redazione o simulazioni, ma la valutazione finale, la strategia, la scelta degli argomenti e l’assunzione di responsabilità restano ancorate al giudizio professionale. Ne discende un’esigenza organizzativa. Diventa opportuno separare le fasi di lavoro in cui l’AI è usata come strumento da quelle in cui la prestazione si forma come elaborazione intellettuale, in modo da poter dimostrare, se necessario, che il fulcro dell’opera non è stato delegato a un sistema automatico.

Trasparenza verso il cliente e tutela del rapporto fiduciario

La seconda conseguenza immediata è la trasparenza. Per assicurare il rapporto fiduciario, la legge stabilisce che le informazioni relative ai sistemi di intelligenza artificiale utilizzati dal professionista siano comunicate al destinatario della prestazione con linguaggio chiaro, semplice ed esaustivo. Il requisito non coincide con l’obbligo europeo di etichettare contenuti generati o di informare l’utente quando interagisce con un chatbot. Qui l’oggetto è il “come” il professionista lavora. In altre parole, l’adempimento riguarda il processo professionale.

La pratica quotidiana deve quindi includere un momento di informazione al cliente quando l’AI incide in modo non marginale su raccolta dati, analisi o predisposizione di elaborati. Non è necessario trasformare ogni incarico in un manuale tecnico, ma serve una comunicazione comprensibile che chiarisca almeno quali strumenti sono impiegati, per quali scopi, quali limiti hanno e in che modo il professionista controlla e valida i risultati. Il valore operativo è duplice.

Da un lato, questa trasparenza allinea le aspettative e riduce il rischio di contestazioni basate su opacità o su un presunto “affidamento cieco” alla macchina. Dall’altro lato, spinge a una selezione più rigorosa dei sistemi usati, privilegiando quelli che consentono tracciabilità, log delle attività, gestione dei dati e controllo degli output.

Intersezione con gli obblighi europei già in vigore nel 2026

Nel 2026 la bussola resta il risk-based approach dell’AI Act. Anche quando la legge italiana parla di principi o di settori specifici, la classificazione europea rimane lo schema di fondo. Questo vale soprattutto per i sistemi ad alto rischio e per gli usi vietati.

Dal 2 febbraio 2025 sono applicabili i divieti sulle pratiche considerate inaccettabili e le disposizioni generali, incluse quelle sulla “AI literacy”. Per i professionisti questo ha almeno due implicazioni pratiche. La prima è evitare, direttamente o come committenti di un fornitore, usi che ricadano nelle categorie proibite. La seconda è investire nella competenza diffusa. La “AI literacy” non è un semplice corso facoltativo. È l’aspettativa regolatoria che chi progetta, compra o utilizza sistemi di AI abbia un livello adeguato di comprensione, proporzionato al contesto e ai rischi.

Dal 2 agosto 2025 sono inoltre operative le regole sui modelli di AI di uso generale. Molti studi professionali ormai utilizzano strumenti basati su modelli generalisti, anche quando li percepiscono come semplici software di produttività. Questo spinge a controlli contrattuali e organizzativi più rigorosi, perché le responsabilità possono distribuirsi tra fornitore del modello, fornitore dell’applicazione e soggetto che la usa nello svolgimento dell’incarico.

Settori ad alta sensibilità: sanità, lavoro, giustizia e pubblica amministrazione

La legge n. 132/2025 dedica articoli specifici ad ambiti in cui l’asimmetria informativa e l’impatto sui diritti fondamentali sono più marcati.

In sanità si afferma che l’intelligenza artificiale può supportare prevenzione, diagnosi e cura, ma senza condizionare l’accesso alle prestazioni con criteri discriminatori. L’interessato ha diritto a essere informato sull’impiego di tecnologie di AI e la decisione clinica resta sempre rimessa al medico. Questo punto è rilevante anche per professionisti non sanitari che lavorano con strutture o fornitori del settore. L’assetto che emerge è quello di un supporto non vincolante, con obblighi di affidabilità, verifica periodica e aggiornamento dei sistemi.

Nel lavoro la norma nazionale richiama sicurezza, affidabilità e trasparenza. Soprattutto, ribadisce che datore di lavoro o committente devono informare il lavoratore quando vengono usati sistemi decisionali o di monitoraggio automatizzati, rinviando alla disciplina sugli obblighi informativi già presente nel diritto del lavoro. Per consulenti del lavoro, HR e studi che gestiscono processi di selezione, valutazione o organizzazione, questa combinazione impone una gestione documentale e comunicativa più strutturata, perché la tracciabilità non è solo un requisito tecnico ma un obbligo verso la persona.

In ambito giudiziario si stabilisce un principio di presidio umano massimo. Ogni decisione su interpretazione e applicazione della legge, valutazione dei fatti e delle prove e adozione dei provvedimenti è riservata al magistrato. Per gli uffici giudiziari l’uso dell’AI è disciplinato dal Ministero e, fino a una compiuta attuazione dell’AI Act, la sperimentazione richiede un’autorizzazione e il coinvolgimento delle autorità nazionali designate. Per gli avvocati questo scenario non significa divieto di strumenti avanzati, ma rafforza l’attenzione su accuratezza, verificabilità delle fonti e chiarezza nel distinguere tra analisi umana e suggerimenti generati.

La pubblica amministrazione, infine, è chiamata a usare l’AI per efficienza e qualità dei servizi, assicurando conoscibilità del funzionamento e tracciabilità dell’uso. Anche quando un professionista opera come consulente della PA o sviluppa soluzioni per enti pubblici, si deve misurare con requisiti di spiegabilità e auditabilità che incidono su progettazione e procurement.

Autorità nazionali, vigilanza e prossimi decreti di attuazione

Un passaggio cruciale della legge italiana è la designazione di AgID e ACN come autorità nazionali per l’intelligenza artificiale, con un ruolo distinto. AgID è orientata a promuovere innovazione e a definire procedure e compiti legati a notifica e conformità. ACN assume la vigilanza, incluse attività ispettive e sanzionatorie, con un baricentro sulla cybersicurezza. In parallelo restano ferme competenze settoriali di Banca d’Italia, CONSOB e IVASS per la vigilanza del mercato nei rispettivi domini.

Per l’attività professionale questo assetto ha un effetto concreto. Nel corso del 2026 aumenterà la richiesta di evidenze di conformità, non solo come “compliance formale”, ma come capacità di dimostrare gestione del rischio, controllo umano, tracciabilità e protezione dei dati. Il punto non è prevedere un’ispezione imminente per ogni studio, ma adottare un modello di governance che regga anche quando il contesto contrattuale cambia, ad esempio quando un cliente chiede garanzie specifiche, o quando un fornitore aggiorna un sistema con nuove funzionalità.

La legge prevede inoltre una delega al Governo per l’adeguamento della normativa nazionale all’AI Act entro dodici mesi dall’entrata in vigore della legge, quindi entro ottobre 2026, con criteri direttivi che includono percorsi di alfabetizzazione e formazione. Particolarmente significativo è il riferimento agli ordini professionali e alle associazioni di categoria, chiamati a prevedere percorsi formativi specifici sull’uso dell’AI per professionisti e operatori dei settori interessati. Ne deriva che la dimensione “deontologica” e quella “competenziale” saranno sempre più intrecciate. Non si tratta soltanto di imparare nuovi strumenti, ma di integrare nel modo di lavorare una verifica metodica degli output e una gestione prudente della confidenzialità.

Come si traduce operativamente nella pratica quotidiana

A gennaio 2026, la domanda che conta è come esercitare la professione senza rallentare l’innovazione e senza esporsi a rischi evitabili. La risposta più solida è considerare l’AI come una componente del sistema qualità dello studio, non come un accessorio.

Questo implica, anzitutto, un inventario reale degli strumenti utilizzati, includendo anche funzioni “AI-powered” integrate in software standard. Su questa base diventa possibile classificare i casi d’uso rispetto al rischio, distinguendo supporto redazionale o analitico da sistemi che incidono su decisioni, valutazioni o accesso a diritti e servizi. In secondo luogo serve una disciplina interna sulla gestione dei dati, perché molte applicazioni generative comportano trasferimenti verso fornitori esterni e possibili riutilizzi per addestramento, aspetti che richiedono valutazioni coerenti con riservatezza professionale e con il quadro privacy.

La terza dimensione è la trasparenza esterna. La comunicazione al cliente prevista dalla legge n. 132/2025 diventa più semplice se si dispone di descrizioni standardizzate e comprensibili degli strumenti adottati e dei controlli effettuati, aggiornate quando cambiano versioni o modalità di utilizzo. Infine, la formazione non può essere episodica. L’obbligo europeo di AI literacy, insieme alla prospettiva di percorsi promossi dagli ordini, rende ragionevole una formazione continuativa che unisca aspetti tecnici, limiti dei modelli, gestione dei bias, cybersecurity e profili di responsabilità.

Conclusione

L’entrata in vigore della legge n. 132/2025 non introduce un “manuale unico” per l’attività professionale, ma traccia una direzione precisa. L’intelligenza artificiale deve restare uno strumento di supporto, non un sostituto della prestazione intellettuale, e il cliente deve poter capire in modo chiaro come e perché viene utilizzata. In parallelo, l’AI Act sta già producendo effetti regolatori tangibili nel 2026, con divieti e obblighi di competenza in vigore e con un percorso che porterà alla piena applicabilità nel 2026 e oltre.

Per i professionisti il messaggio operativo è pragmatico. Innovare è possibile e spesso necessario, ma richiede tracciabilità, controllo umano e un approccio consapevole al rischio. Chi investe ora in governance, formazione e trasparenza non sta solo riducendo l’esposizione normativa. Sta anche rafforzando, in un mercato sempre più digitale, quella fiducia che resta il vero capitale della relazione professionale.

Bibliografia

Gazzetta Ufficiale della Repubblica Italiana, LEGGE 23 settembre 2025, n. 132, “Disposizioni e deleghe al Governo in materia di intelligenza artificiale” (GU n. 223 del 25-9-2025) https://www.gazzettaufficiale.it/eli/id/2025/09/25/25G00143/sg

EUR-Lex, Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024 (AI Act) https://eur-lex.europa.eu/eli/reg/2024/1689/oj?locale=it

Commissione europea, “AI Act enters into force” (1 agosto 2024) https://commission.europa.eu/news-and-media/news/ai-act-enters-force-2024-08-01_en

Commissione europea, “AI Act. Application timeline” (quadro sintetico delle scadenze) https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai

AI Act Service Desk della Commissione europea, “Timeline for the Implementation of the EU AI Act” https://ai-act-service-desk.ec.europa.eu/en/ai-act/timeline/timeline-implementation-eu-ai-act

Commissione europea, “Guidelines on prohibited AI practices, as defined by the AI Act” (4 febbraio 2025) https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act

Commissione europea, “Guidelines on AI system definition” (6 febbraio 2025) https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application

Commissione europea, “Guidelines on the scope of obligations for providers of general-purpose AI models under the AI Act” (18 luglio 2025) https://digital-strategy.ec.europa.eu/en/library/guidelines-scope-obligations-providers-general-purpose-ai-models-under-ai-act

Commissione europea, “Guidelines for providers of general-purpose AI models” (17 ottobre 2025) https://digital-strategy.ec.europa.eu/en/policies/guidelines-gpai-providers

Condividi Articolo

Leggi anche

DEI CONSACRATI ALLA SCUOLA DEL WEB

In collaborazione con il Centro Comunicazioni Sociali della Pontificia Università Urbaniana, la UISG ha ideato un corso di communicazione intitolato “Come fare uno sito web?”.