4 Novembre 2025

AI come supporto: il principio della prevalenza umana

di Carla Angius - Dottore commercialista, Segreteria Commissione UNGDCEC IA, digitalizzazione e nuove frontiere della professione Scarica in PDF

La recente entrata in vigore della Legge n. 132/2025 sull’Intelligenza Artificiale, in armonia con l’AI Act (Regolamento UE 2024/1689), introduce per l’Italia il primo quadro normativo organico in materia di IA. Si tratta di una legge di carattere generale che rinvia in molte delle sue parti ad altri atti normativi – ad esempio, il Regolamento UE e i futuri decreti attuativi – per la definizione dei diversi aspetti applicativi.

La disciplina è caratterizzata da un approccio antropocentrico, secondo cui i sistemi intelligenti devono essere progettati per potenziare il lavoro delle persone e non per sostituirlo. Questo principio, c.d. della prevalenza del lavoro umano, permea le norme relative alle professioni, così come al lavoro subordinato, alla Pubblica amministrazione e persino alla Giustizia.

Relativamente all’ambito delle professioni, si fa riferimento alla prevalenza del lavoro intellettuale. L’art. 13, Legge n. 132/2025, stabilisce che, nelle professioni intellettuali – ad esempio Avvocati, commercialisti, Notai, consulenti del lavoro e ingegneri – l’Intelligenza Artificiale può essere impiegata esclusivamente per attività strumentali o di supporto allo svolgimento della professione. Pertanto, la parte essenziale della prestazione professionale rimane affidata all’ingegno e al discernimento umano. L’IA può affiancare il professionista – semplificando le operazioni preparatorie o accelerando ricerche e attività ripetitive – ma non può sostituirne il giudizio, le scelte strategiche né la capacità di interpretare norme e situazioni. Su questo equilibrio si fonda l’intera Riforma, che vede nell’innovazione tecnologica non un fattore di sostituzione, ma di valorizzazione del ruolo umano, riaffermando la centralità del giudizio, della responsabilità e della competenza del professionista.

L’intelligenza artificiale entra, dunque, negli studi professionali, non tanto come surrogato del pensiero critico umano, quanto come alleata operativa. Per il Dottore commercialista e l’esperto contabile l’impatto di questa tecnologia è significativo, poiché implementa la capacità analitica e di sintesi. Questi strumenti consentono di impiegare software per l’analisi dei bilanci, la redazione di rendicontazioni ESG, il monitoraggio degli indicatori di crisi d’impresa o la gestione digitale dei flussi di dati contabili. Tuttavia, la valutazione delle strategie fiscali, l’interpretazione normativa e la tutela dell’interesse del cliente restano competenze insostituibili e personali dell’esperto. Analogamente, l’avvocato può avvalersi di sistemi automatizzati per accelerare le ricerche giurisprudenziali o per predisporre bozze di atti, ma la scelta della strategia difensiva, l’interpretazione del caso concreto e l’abilità dialettica ed espositiva restano prerogative esclusive del professionista. Il Notaio può utilizzare algoritmi per verifiche catastali o controlli documentali, ma la garanzia della legalità e la funzione pubblica di fede rimangono inscindibilmente legate alla sua persona. Anche il consulente del lavoro può affidarsi all’IA per gestire scadenze, analizzare buste paga o stimare l’impatto contributivo di nuove assunzioni, ma il confronto con le relazioni sindacali e la definizione delle politiche di gestione del personale richiedono sensibilità e giudizio umano.

È in questa sinergia tra precisione algoritmica e discernimento professionale che si delinea il futuro delle professioni; un equilibrio in cui la tecnologia amplifica le capacità del professionista, ma la decisione resta irriducibilmente umana.

La normativa non si limita a disciplinare l’uso dell’Intelligenza Artificiale da parte dei singoli professionisti, ma coinvolge anche i collaboratori e il personale di studio. L’art. 11, Legge n. 132/2025, promuove la formazione continua e la diffusione della cultura digitale e dell’IA, sottolineando che la trasformazione tecnologica richiede un capitale umano consapevole e ambienti di lavoro, in cui la conoscenza di tali strumenti sia parte delle competenze condivise. Formare i collaboratori non è solo un obbligo etico, ma una condizione per assicurare un utilizzo della tecnologia conforme ai principi di trasparenza, sicurezza e responsabilità. Uno studio che investe nella cultura digitale — e nel corretto impiego dell’IA — non solo riduce i rischi di errore, ma rafforza la propria affidabilità e garantisce la qualità complessiva della consulenza.

Un ulteriore elemento cardine della nuova disciplina è l’obbligo di trasparenza verso chi subisce o beneficia degli effetti dell’intelligenza artificiale. In ambito professionale, ciò significa che il cliente deve essere informato, prima dell’esecuzione dell’incarico, sull’eventuale utilizzo di strumenti basati su IA, in modo chiaro, semplice ed esaustivo. In un’epoca di trasformazione digitale, ignorare l’IA significa non essere in linea con gli strumenti attuali; per questo, se è corretto segnalare quando la si utilizza, può esserlo altrettanto giusto indicare quando non la si impiega.

Pur enunciando princìpi chiari, la Legge presenta alcune zone d’ombra e criticità applicative. La normativa non definisce con precisione il confine tra il legittimo supporto dell’intelligenza artificiale e la sostituzione del discernimento professionale. Si tratta di una linea sottile che, in assenza di parametri oggettivi, rischia interpretazioni difformi nei vari contesti. Allo stesso modo, manca un sistema sanzionatorio esplicito per chi violi il principio di prevalenza umana, lasciando agli ordini professionali il compito di aggiornare i propri codici deontologici e di individuare eventuali misure disciplinari. Alcuni osservatori segnalano anche il rischio di un eccesso di burocrazia, ad esempio nell’obbligo di informativa al cliente, che potrebbe essere percepito come un ulteriore adempimento formale.

Al di là della tutela del capitale umano, valorizzato dalla normativa, esiste una criticità operativa intrinseca all’utilizzo dell’intelligenza artificiale. L’efficacia delle soluzioni dipende in larga misura dalla qualità delle istruzioni che le vengono fornite. Inserire prompt generici (o non contestualizzati) porta spesso a risultati superficiali o fuorvianti. L’IA elabora ciò che riceve: se l’input è debole, l’output sarà inevitabilmente povero di contenuto e profondità. Lo stesso accade quando l’utente non padroneggia l’argomento e si limita a delegare la costruzione del pensiero alla macchina. Inoltre, quando l’algoritmo non conosce la risposta o la domanda è troppo orientata da un punto di vista soggettivo, tende a confermare la tesi di chi lo interroga, generando una pericolosa sensazione di coerenza e conforto, ma senza basi scientifiche o verificabili. È il c.d. effetto “echo chamber” digitale, dove la tecnologia rafforza convinzioni preesistenti, anziché metterle in discussione. Per questo è fondamentale mantenere il controllo critico sulle fonti da cui l’IA attinge informazioni, che non sempre sono attendibili, aggiornate o autorevoli. Ogni elaborazione automatizzata dovrebbe, comunque, essere sottoposta a una verifica umana, considerata una buona prassi di controllo e responsabilità, in linea con il principio europeo “human in the loop”.

Nonostante queste lacune, il nuovo quadro normativo rappresenta un passo significativo verso un impiego equilibrato e consapevole della tecnologia. La prospettiva è quella di un’intelligenza artificiale concepita come strumento di supporto, capace di coniugare efficienza e innovazione senza compromettere la centralità della capacità critica. L’obiettivo è tradurre i principi in pratiche concrete, investendo su formazione, aggiornamento e cultura digitale diffusa, affinché l’IA diventi, davvero, un alleato consapevole e non un sostituto inconsapevole o un amplificatore di convinzioni errate.

In uno scenario in cui l’efficacia dei sistemi dipende dalla qualità delle istruzioni e dal controllo critico delle fonti, i professionisti emergenti possono giocare un ruolo chiave nella trasformazione dello studio, diventando agenti di cambiamento e garanti della centralità della persona nella consulenza. I giovani professionisti occupano una posizione strategica in questa nuova fase, rappresentando sia il target naturale per l’adozione delle tecnologie intelligenti, sia il terreno sul quale costruire un capitale umano capace di governarle. Spinti dall’innovazione, ma consapevoli che l’IA non basta da sola, possono affiancare lo studio della tecnologia alla formazione professionale, sviluppando competenze digitali e una cultura del discernimento e della responsabilità. Il vantaggio è duplice: acquisire fin da subito familiarità con strumenti evoluti e, al tempo stesso, rafforzare il valore del proprio intervento umano.

In definitiva, sembrerebbe che il principio della prevalenza umana non si traduca soltanto in una disposizione normativa, ma in una bussola etica e culturale per l’intero mondo delle professioni. L’intelligenza artificiale deve restare uno strumento al servizio della persona, capace di potenziare il lavoro umano senza intaccarne la dignità, l’autonomia e il rapporto fiduciario con il cliente. Per coglierne i benefici senza smarrire il controllo sarà necessario la formazione continua, l’aggiornamento dei codici deontologici e lo sviluppo di nuove competenze digitali e critiche. La vera sfida sarà trasformare i principi in prassi quotidiana, costruendo un ecosistema in cui l’IA affianca, valorizza e potenzia l’uomo, senza mai sostituirlo.