{"id":6302,"date":"2025-12-17T09:00:27","date_gmt":"2025-12-17T08:00:27","guid":{"rendered":"https:\/\/192.168.2.57\/?p=6302"},"modified":"2025-12-17T17:20:54","modified_gmt":"2025-12-17T16:20:54","slug":"intelligenza-artificiale-personalita-della-prestazione-e-responsabilita-professionale","status":"publish","type":"post","link":"https:\/\/www.infonews.notartel.it\/index.php\/2025\/12\/17\/intelligenza-artificiale-personalita-della-prestazione-e-responsabilita-professionale\/","title":{"rendered":"Intelligenza artificiale, personalit\u00e0 della prestazione e responsabilit\u00e0 professionale"},"content":{"rendered":"<div class=\"post-content\">\n<p>Con il termine &#8220;personalit\u00e0 della prestazione&#8221; si intende il dovere civilistico e deontologico del Notaio di svolgere personalmente e direttamente le funzioni al medesimo attribuite dall&#8217;ordinamento.<\/p>\n\n\n\n<p>In verit\u00e0 quello della &#8220;personalit\u00e0 della prestazione&#8221; \u00e8 un dovere che l&#8217;ordinamento impone ad ogni prestatore d&#8217;opera intellettuale, come confermato dall&#8217;art. 2232 del Codice civile, secondo il quale <strong>&#8220;Il prestatore d&#8217;opera deve eseguire personalmente l&#8217;incarico assunto&#8221;.<\/strong><\/p>\n\n\n\n<p>La detta previsione si giustifica con la natura strettamente fiduciaria del rapporto che si instaura tra cliente e professionista e dalla quale derivano obblighi di diligenza, di informazione, di fedelt\u00e0 e riservatezza la cui violazione \u00e8 fonte di responsabilit\u00e0 per il professionista.<\/p>\n\n\n\n<p>La prestazione cui \u00e8 tenuto il prestatore d&#8217;opera intellettuale \u00e8 pertanto <strong>una prestazione di fare infungibile <\/strong>e ci\u00f2 in quanto la prestazione professionale <strong>&#8220;presuppone quelle particolari conoscenze ed esperienze tecniche che vengono in genere accertate attraverso l&#8217;iscrizione obbligatoria agli albi e agli elenchi professionali e che viene richiesta e concordata intuitu personae rispetto ad un determinato soggetto a preferenza di altri che, dal punto di vista oggettivo, sarebbero ugualmente in grado di eseguirla&#8221;<\/strong>.<\/p>\n\n\n\n<p>Le norme principali in materia di attivit\u00e0 notarile sono costituite dall&#8217;art. <strong>47, comma 2\u00b0 della Legge notarile<\/strong> (&#8220;Il notaio indaga la volont\u00e0 delle parti e sotto la propria direzione cura la compilazione integrale dell&#8217;atto.&#8221;) e<strong> l&#8217;art. 67 del R.D. n. 1326\/1914 Regolamento per l&#8217;esecuzione della legge notarile <\/strong>(&#8220;Spetta al notaro di dirigere la compilazione dell&#8217;atto dal principio alla fine, anche nel caso che lo faccia scrivere da persona di sua fiducia; a lui solo compete d&#8217;indagare la volont\u00e0 delle parti e di chiedere, dopo aver dato ad esse lettura dell&#8217;atto, se sia conforme alla loro volont\u00e0).<\/p>\n\n\n\n<p><strong>In che modo l&#8217;uso della intelligenza artificiale impatter\u00e0 sul principio della personalit\u00e0 della prestazione e pi\u00f9 in generale sull\u2019attivit\u00e0 notarile?<\/strong> Se l&#8217;indagine sulla volont\u00e0 delle parti non pu\u00f2 essere in alcun modo delegata n\u00e9 ai collaboratori e nemmeno ad un sistema di IA (tipo chatbot) \u00e8 possibile delegare l&#8217;attivit\u00e0 di adeguamento e la redazione dell&#8217;atto ad un sistema di intelligenza artificiale e se s\u00ec con quali limiti?<\/p>\n\n\n\n<p>L\u2019art. 13 della legge n. 132\/2025, entrato in vigore il 10 ottobre di quest\u2019anno, conferma questa affermazione stabilendo che &#8220;L&#8217;utilizzo di sistemi di intelligenza artificiale nelle professioni intellettuali \u00e8 consentito esclusivamente per esercitare attivit\u00e0 strumentali e di supporto all&#8217;attivit\u00e0 professionale richiesta e con prevalenza del lavoro intellettuale oggetto della prestazione di opera.&#8221;.<\/p>\n\n\n\n<p>Per il legislatore, quindi, la IA non dovrebbe sostituire in alcun modo il giudizio, la capacit\u00e0 critica e la competenza del professionista, riducendo il ruolo dei sistemi di intelligenza artificiale a quello di semplice supporto dell\u2019attivit\u00e0 professionale.<\/p>\n\n\n\n<p>La normativa vigente a livello nazionale e europeo in tema di IA attribuisce, inoltre, una grande importanza alla <strong>formazione dei professionisti<\/strong> ritenendo che presupposto indispensabile di un uso responsabile e deontologicamente corretto della Intelligenza artificiale sia la conoscenza della tecnologia posta a fondamento dello strumento utilizzato, delle criticit\u00e0 che derivano dall\u2019apprendimento automatico in assenza di interpretazione, del rischio del linguaggio e dei contenuti massivi che possono prestare il fianco a letture fuori dal contesto reale o disallineate rispetto al presupposto fattuale del ragionamento giuridico (si pensi a quei fenomeni definiti allucinazioni, ossia quegli output che la IA produce e che non sono basati sulla realt\u00e0 o sulla verit\u00e0 oggettiva e comunque non coerenti con gli input forniti).<\/p>\n\n\n\n<p>Alcune categorie professionali hanno elaborato <strong>norme deontologiche<\/strong> che ribadiscono i principi sopra esposti; ad esempio, quella degli avvocati, la cui Federazione Europea ha pubblicato le prime <strong><a href=\"https:\/\/www.ordineavvocati.vr.it\/wp-content\/uploads\/2025\/09\/Linee-Guida-2.0-FBE-su-uso-responsabile-della-I.A.pdf\" target=\"_blank\" rel=\"noopener\" title=\"\">linee guida<\/a><\/strong> della Commissione nuove tecnologie. Si tratta di prime riflessioni legate all\u2019attuale situazione di sviluppo in particolare alla luce della diffusione della ChatGPT attiva dal 30 novembre 2022.<\/p>\n\n\n\n<p>Anche l\u2019American Bar Association ha gi\u00e0 convocato un gruppo di esperti per lavorare sulla tematica dell\u2019intelligenza artificiale.<\/p>\n\n\n\n<p>Da queste prime linee guida emerge con forza il suggerimento di informare i clienti che gli strumenti di intelligenza artificiale potrebbero essere utilizzati nell\u2019espletamento del loro mandato, fornendo un modello di dichiarazione che potrebbe essere inclusa nell\u2019incarico professionale conferito dal cliente, nel rispetto di quanto previsto &nbsp;dal secondo comma del citato articolo 13 della Legge n. 132\/2025, a tenore del quale \u201cPer assicurare il rapporto fiduciario tra professionista e cliente, le informazioni relative ai sistemi di intelligenza artificiale utilizzati dal professionista sono comunicate al soggetto destinatario della prestazione intellettuale con linguaggio chiaro, semplice ed esaustivo.\u201d.<\/p>\n\n\n\n<p>Questa precauzione, oltre ad essere essenziale per il rispetto del principio di trasparenza cui dovrebbe uniformarsi l&#8217;attivit\u00e0 notarile, \u00e8 fondamentale ai fini di una eventuale <strong><a href=\"https:\/\/infonews.notartel.it\/index.php\/2019\/03\/01\/home_n1_2019\/\" title=\"\">responsabilit\u00e0 del notaio<\/a><\/strong> per violazione del dovere di consiglio, nel caso in cui la soluzione scelta nell&#8217;interesse del cliente, anche sulla base dell&#8217;utilizzo di sistemi di intelligenza artificiale, si rivelasse sbagliata per le allucinazioni del sistema utilizzato.<\/p>\n\n\n\n<p>Si \u00e8 infatti affermato <em>(Giusella Finocchiaro. Intelligenza artificiale, quali regole?)<\/em> che c&#8217;\u00e8 spesso un contrasto tra la percezione che si ha dell&#8217;informazione generata da sistemi di IA, come ChatGPT e la qualit\u00e0 della stessa. L&#8217;informazione fornita da questi sistemi appare credibile e verosimile e genera affidamento anche se del tutto falsa. Negli Stati Uniti fenomeni del genere hanno determinato numerose controversie nelle quali sono stati considerati responsabili sia dal punto di vista deontologico che civilistico anche chi ha utilizzato i dati forniti dal sistema di IA senza una adeguata verifica.<\/p>\n\n\n\n<p>In questi casi le attuali regole che disciplinano <strong>la responsabilit\u00e0 contrattuale<\/strong> andrebbero aggiornate.&nbsp;<\/p>\n\n\n\n<p>C&#8217;\u00e8 chi, ad esempio, propone di riconoscere una soggettivit\u00e0 giuridica ai sistemi di IA e conseguentemente attribuire loro una responsabilit\u00e0, soluzione affascinante ma che non risolverebbe il problema principale, quello del risarcimento del danno a meno che le societ\u00e0 proprietarie del software non siano obbligate a creare un patrimonio autonomo destinato a risarcire gli utenti danneggiati.<\/p>\n\n\n\n<p>Altri hanno suggerito di distinguere tra sistemi deterministici (quelli i cui algoritmi, dato un input, producono sempre lo stesso output) e quelli non deterministici (i quali al contrario sono in grado di fornire output diversi in modo non prevedibile), modulando la responsabilit\u00e0 dei produttori in modo diverso ed obbligandoli nel secondo caso ad una maggiore trasparenza che li obbligherebbe anche a fornire i dati relativi alla spiegabilit\u00e0 delle decisioni assunte.<\/p>\n\n\n\n<p>Occorre poi tenere conto del fatto che gli stessi input potrebbero essere fondati su dati errati.<\/p>\n\n\n\n<p>Tutto questo fa s\u00ec che la dottrina che si \u00e8 occupata del problema si stia orientando verso un sistema di responsabilit\u00e0 condivisa tra il creatore del sistema di IA e l&#8217;utilizzatore e questo rende particolarmente importante definire il contenuto della prestazione a cui il notaio si obbliga.&nbsp;&nbsp;&nbsp;<\/p>\n\n\n\n<p>Inoltre, particolare attenzione dovr\u00e0 essere dedicata al <strong>rafforzamento della tutela dei dati riservati dei clienti<\/strong>, osservando le regole e le indicazioni del Garante della Privacy. Non si pu\u00f2 consentire l\u2019utilizzo dei dati riservati dei clienti da parte delle societ\u00e0 che sviluppano sistemi di IA.<\/p>\n\n\n\n<p>Quello che \u00e8 certo \u00e8 che dovremo fare i conti con IA e per questo dovremo essere preparati e in grado di gestirla sempre nell\u2019interesse della societ\u00e0 e dei clienti.<\/p>\n\n\n\n<p>A parere di chi scrive l&#8217;utilizzo di sistemi di IA dovr\u00e0 a tal fine seguire alcune cautele che dovranno tradursi in norme deontologiche, tra le quali:<\/p>\n\n\n\n<p>&#8211; utilizzare l\u2019IA solo per attivit\u00e0 amministrative, organizzative e di pre-analisi documentale, mentre l&#8217;attivit\u00e0 di adeguamento e l&#8217;indagine della volont\u00e0 delle parti deve restare riservata al notaio;<\/p>\n\n\n\n<p>&#8211; scegliere programmi di IA i cui algoritmi siano <em>open source<\/em> e validati scientificamente, per garantire trasparenza ed imparzialit\u00e0:<\/p>\n\n\n\n<p>&#8211; affiancare sempre l&#8217;utilizzo dell\u2019IA alla supervisione e verifica da parte del notaio;<\/p>\n\n\n\n<p>&#8211; introdurre l\u2019IA gradualmente, formando adeguatamente ed aggiornando il notaio ed il personale dello studio sul suo utilizzo etico e responsabile;<\/p>\n\n\n\n<p>&#8211; effettuare controlli e test periodici per monitorare il corretto funzionamento degli algoritmi;<\/p>\n\n\n\n<p>&#8211; implementare misure rigide a tutela della riservatezza dei dati dei clienti;<\/p>\n\n\n\n<p>&#8211; informare chiaramente i clienti sull\u2019utilizzo dell\u2019IA e raccogliere il loro consenso esplicito;<\/p>\n\n\n\n<p>&#8211; verificare i risultati dell&#8217;utilizzo dei sistemi in modo da ridurre il rischio di &#8220;allucinazioni&#8221;;<\/p>\n\n\n\n<p>&#8211; aggiornare nel tempo gli algoritmi per minimizzare i rischi di obsolescenza e discriminazione.<\/p>\n\n\n\n<p>Va ricordato infine che il legislatore, nella consapevolezza dei rischi insiti nell\u2019utilizzo non consapevole ed informato dei dati forniti dalla IA ha delegato il Governo a adottare provvedimenti che prevedano la possibilit\u00e0 di un riconoscimento di un equo compenso modulabile sulla base della responsabilit\u00e0 e dei rischi connessi all\u2019uso dei sistemi di intelligenza artificiale (art. 24, comma 2, lett. f) della legge n. 132\/2025).<\/p>\n<\/div>","protected":false},"excerpt":{"rendered":"<p>Se l&#8217;indagine sulla volont\u00e0 delle parti non pu\u00f2 essere delegata \u00e8 possibile affidare l&#8217;attivit\u00e0 di adeguamento e la redazione dell&#8217;atto notarile ad un sistema di intelligenza artificiale e se s\u00ec con quali limiti?<\/p>\n","protected":false},"author":7,"featured_media":5846,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"_editorskit_title_hidden":false,"_editorskit_reading_time":0,"_editorskit_is_block_options_detached":false,"_editorskit_block_options_position":"{}","footnotes":""},"categories":[199],"tags":[449],"class_list":["post-6302","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-editoriale","tag-newsletter-infonews-del-01-12-2025-n-3"],"acf":[],"aioseo_notices":[],"_links":{"self":[{"href":"https:\/\/www.infonews.notartel.it\/index.php\/wp-json\/wp\/v2\/posts\/6302"}],"collection":[{"href":"https:\/\/www.infonews.notartel.it\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.infonews.notartel.it\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.infonews.notartel.it\/index.php\/wp-json\/wp\/v2\/users\/7"}],"replies":[{"embeddable":true,"href":"https:\/\/www.infonews.notartel.it\/index.php\/wp-json\/wp\/v2\/comments?post=6302"}],"version-history":[{"count":6,"href":"https:\/\/www.infonews.notartel.it\/index.php\/wp-json\/wp\/v2\/posts\/6302\/revisions"}],"predecessor-version":[{"id":6356,"href":"https:\/\/www.infonews.notartel.it\/index.php\/wp-json\/wp\/v2\/posts\/6302\/revisions\/6356"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.infonews.notartel.it\/index.php\/wp-json\/wp\/v2\/media\/5846"}],"wp:attachment":[{"href":"https:\/\/www.infonews.notartel.it\/index.php\/wp-json\/wp\/v2\/media?parent=6302"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.infonews.notartel.it\/index.php\/wp-json\/wp\/v2\/categories?post=6302"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.infonews.notartel.it\/index.php\/wp-json\/wp\/v2\/tags?post=6302"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}