Mercoledì, 17 Dicembre 2025
Intelligenza artificiale, personalità della prestazione e responsabilità professionale

Con il termine “personalità della prestazione” si intende il dovere civilistico e deontologico del Notaio di svolgere personalmente e direttamente le funzioni al medesimo attribuite dall’ordinamento.

In verità quello della “personalità della prestazione” è un dovere che l’ordinamento impone ad ogni prestatore d’opera intellettuale, come confermato dall’art. 2232 del Codice civile, secondo il quale “Il prestatore d’opera deve eseguire personalmente l’incarico assunto”.

La detta previsione si giustifica con la natura strettamente fiduciaria del rapporto che si instaura tra cliente e professionista e dalla quale derivano obblighi di diligenza, di informazione, di fedeltà e riservatezza la cui violazione è fonte di responsabilità per il professionista.

La prestazione cui è tenuto il prestatore d’opera intellettuale è pertanto una prestazione di fare infungibile e ciò in quanto la prestazione professionale “presuppone quelle particolari conoscenze ed esperienze tecniche che vengono in genere accertate attraverso l’iscrizione obbligatoria agli albi e agli elenchi professionali e che viene richiesta e concordata intuitu personae rispetto ad un determinato soggetto a preferenza di altri che, dal punto di vista oggettivo, sarebbero ugualmente in grado di eseguirla”.

Le norme principali in materia di attività notarile sono costituite dall’art. 47, comma 2° della Legge notarile (“Il notaio indaga la volontà delle parti e sotto la propria direzione cura la compilazione integrale dell’atto.”) e l’art. 67 del R.D. n. 1326/1914 Regolamento per l’esecuzione della legge notarile (“Spetta al notaro di dirigere la compilazione dell’atto dal principio alla fine, anche nel caso che lo faccia scrivere da persona di sua fiducia; a lui solo compete d’indagare la volontà delle parti e di chiedere, dopo aver dato ad esse lettura dell’atto, se sia conforme alla loro volontà).

In che modo l’uso della intelligenza artificiale impatterà sul principio della personalità della prestazione e più in generale sull’attività notarile? Se l’indagine sulla volontà delle parti non può essere in alcun modo delegata né ai collaboratori e nemmeno ad un sistema di IA (tipo chatbot) è possibile delegare l’attività di adeguamento e la redazione dell’atto ad un sistema di intelligenza artificiale e se sì con quali limiti?

L’art. 13 della legge n. 132/2025, entrato in vigore il 10 ottobre di quest’anno, conferma questa affermazione stabilendo che “L’utilizzo di sistemi di intelligenza artificiale nelle professioni intellettuali è consentito esclusivamente per esercitare attività strumentali e di supporto all’attività professionale richiesta e con prevalenza del lavoro intellettuale oggetto della prestazione di opera.”.

Per il legislatore, quindi, la IA non dovrebbe sostituire in alcun modo il giudizio, la capacità critica e la competenza del professionista, riducendo il ruolo dei sistemi di intelligenza artificiale a quello di semplice supporto dell’attività professionale.

La normativa vigente a livello nazionale e europeo in tema di IA attribuisce, inoltre, una grande importanza alla formazione dei professionisti ritenendo che presupposto indispensabile di un uso responsabile e deontologicamente corretto della Intelligenza artificiale sia la conoscenza della tecnologia posta a fondamento dello strumento utilizzato, delle criticità che derivano dall’apprendimento automatico in assenza di interpretazione, del rischio del linguaggio e dei contenuti massivi che possono prestare il fianco a letture fuori dal contesto reale o disallineate rispetto al presupposto fattuale del ragionamento giuridico (si pensi a quei fenomeni definiti allucinazioni, ossia quegli output che la IA produce e che non sono basati sulla realtà o sulla verità oggettiva e comunque non coerenti con gli input forniti).

Alcune categorie professionali hanno elaborato norme deontologiche che ribadiscono i principi sopra esposti; ad esempio, quella degli avvocati, la cui Federazione Europea ha pubblicato le prime linee guida della Commissione nuove tecnologie. Si tratta di prime riflessioni legate all’attuale situazione di sviluppo in particolare alla luce della diffusione della ChatGPT attiva dal 30 novembre 2022.

Anche l’American Bar Association ha già convocato un gruppo di esperti per lavorare sulla tematica dell’intelligenza artificiale.

Da queste prime linee guida emerge con forza il suggerimento di informare i clienti che gli strumenti di intelligenza artificiale potrebbero essere utilizzati nell’espletamento del loro mandato, fornendo un modello di dichiarazione che potrebbe essere inclusa nell’incarico professionale conferito dal cliente, nel rispetto di quanto previsto  dal secondo comma del citato articolo 13 della Legge n. 132/2025, a tenore del quale “Per assicurare il rapporto fiduciario tra professionista e cliente, le informazioni relative ai sistemi di intelligenza artificiale utilizzati dal professionista sono comunicate al soggetto destinatario della prestazione intellettuale con linguaggio chiaro, semplice ed esaustivo.”.

Questa precauzione, oltre ad essere essenziale per il rispetto del principio di trasparenza cui dovrebbe uniformarsi l’attività notarile, è fondamentale ai fini di una eventuale responsabilità del notaio per violazione del dovere di consiglio, nel caso in cui la soluzione scelta nell’interesse del cliente, anche sulla base dell’utilizzo di sistemi di intelligenza artificiale, si rivelasse sbagliata per le allucinazioni del sistema utilizzato.

Si è infatti affermato (Giusella Finocchiaro. Intelligenza artificiale, quali regole?) che c’è spesso un contrasto tra la percezione che si ha dell’informazione generata da sistemi di IA, come ChatGPT e la qualità della stessa. L’informazione fornita da questi sistemi appare credibile e verosimile e genera affidamento anche se del tutto falsa. Negli Stati Uniti fenomeni del genere hanno determinato numerose controversie nelle quali sono stati considerati responsabili sia dal punto di vista deontologico che civilistico anche chi ha utilizzato i dati forniti dal sistema di IA senza una adeguata verifica.

In questi casi le attuali regole che disciplinano la responsabilità contrattuale andrebbero aggiornate. 

C’è chi, ad esempio, propone di riconoscere una soggettività giuridica ai sistemi di IA e conseguentemente attribuire loro una responsabilità, soluzione affascinante ma che non risolverebbe il problema principale, quello del risarcimento del danno a meno che le società proprietarie del software non siano obbligate a creare un patrimonio autonomo destinato a risarcire gli utenti danneggiati.

Altri hanno suggerito di distinguere tra sistemi deterministici (quelli i cui algoritmi, dato un input, producono sempre lo stesso output) e quelli non deterministici (i quali al contrario sono in grado di fornire output diversi in modo non prevedibile), modulando la responsabilità dei produttori in modo diverso ed obbligandoli nel secondo caso ad una maggiore trasparenza che li obbligherebbe anche a fornire i dati relativi alla spiegabilità delle decisioni assunte.

Occorre poi tenere conto del fatto che gli stessi input potrebbero essere fondati su dati errati.

Tutto questo fa sì che la dottrina che si è occupata del problema si stia orientando verso un sistema di responsabilità condivisa tra il creatore del sistema di IA e l’utilizzatore e questo rende particolarmente importante definire il contenuto della prestazione a cui il notaio si obbliga.   

Inoltre, particolare attenzione dovrà essere dedicata al rafforzamento della tutela dei dati riservati dei clienti, osservando le regole e le indicazioni del Garante della Privacy. Non si può consentire l’utilizzo dei dati riservati dei clienti da parte delle società che sviluppano sistemi di IA.

Quello che è certo è che dovremo fare i conti con IA e per questo dovremo essere preparati e in grado di gestirla sempre nell’interesse della società e dei clienti.

A parere di chi scrive l’utilizzo di sistemi di IA dovrà a tal fine seguire alcune cautele che dovranno tradursi in norme deontologiche, tra le quali:

– utilizzare l’IA solo per attività amministrative, organizzative e di pre-analisi documentale, mentre l’attività di adeguamento e l’indagine della volontà delle parti deve restare riservata al notaio;

– scegliere programmi di IA i cui algoritmi siano open source e validati scientificamente, per garantire trasparenza ed imparzialità:

– affiancare sempre l’utilizzo dell’IA alla supervisione e verifica da parte del notaio;

– introdurre l’IA gradualmente, formando adeguatamente ed aggiornando il notaio ed il personale dello studio sul suo utilizzo etico e responsabile;

– effettuare controlli e test periodici per monitorare il corretto funzionamento degli algoritmi;

– implementare misure rigide a tutela della riservatezza dei dati dei clienti;

– informare chiaramente i clienti sull’utilizzo dell’IA e raccogliere il loro consenso esplicito;

– verificare i risultati dell’utilizzo dei sistemi in modo da ridurre il rischio di “allucinazioni”;

– aggiornare nel tempo gli algoritmi per minimizzare i rischi di obsolescenza e discriminazione.

Va ricordato infine che il legislatore, nella consapevolezza dei rischi insiti nell’utilizzo non consapevole ed informato dei dati forniti dalla IA ha delegato il Governo a adottare provvedimenti che prevedano la possibilità di un riconoscimento di un equo compenso modulabile sulla base della responsabilità e dei rischi connessi all’uso dei sistemi di intelligenza artificiale (art. 24, comma 2, lett. f) della legge n. 132/2025).