{"id":6156,"date":"2025-03-13T15:01:04","date_gmt":"2025-03-13T14:01:04","guid":{"rendered":"https:\/\/192.168.2.57\/?p=6156"},"modified":"2025-08-28T12:59:43","modified_gmt":"2025-08-28T10:59:43","slug":"valutazione-di-impatto-nel-regolamento-europeo-sullia","status":"publish","type":"post","link":"https:\/\/www.infonews.notartel.it\/index.php\/2025\/03\/13\/valutazione-di-impatto-nel-regolamento-europeo-sullia\/","title":{"rendered":"&#8220;Valutazione di impatto&#8221; nel Regolamento europeo sull\u2019IA"},"content":{"rendered":"<div class=\"post-content\">\n<p>L\u2019entrata in vigore, il 1\u00b0 agosto 2024, del <a href=\"https:\/\/www.infonews.notartel.it\/index.php\/2024\/10\/18\/lintelligenza-artificiale-tra-sviluppo-tecnologico-e-regolamentazione-una-prima-lettura-dellai-act\/\"><strong>Regolamento europeo sull\u2019intelligenza artificiale<\/strong><\/a> \u00e8 un evento istituzionale che determina per la natura sia dell\u2019oggetto regolato sia del contesto regolante l\u2019avvio di un lungo percorso nel quale non si tratter\u00e0 soltanto di adeguare la normativa nazionale primaria e secondaria recependo gli istituti previsti dal Regolamento e adeguando laddove necessario il diritto nazionale al diritto euro-comune. Si tratter\u00e0 anche \u2013 e come diremo soprattutto \u2013 di costruire capacit\u00e0 amministrative, istituzionali, organizzative, competenze professionali, tecniche e giuridiche, procedure e metodi condivisi, chiari e duraturi, in grado di assicurare il passaggio dalla norma scritta all\u2019azione, in una prospettiva evolutiva.<\/p>\n\n\n\n<p>Le parole chiave nella premessa da cui partiamo sono tre. La prima \u00e8 quella di capacit\u00e0. Una condizione che permette di agire. In questo contesto si tratta di metodi che, come vedremo, hanno a che fare con la nostra capacit\u00e0 di generare conoscenza sull\u2019oggetto regolato. Sul quale torneremo fra qualche riga. La seconda parola chiave \u00e8 condivisa. Il regolamento nasce dalla combinazione di molti interessi e diversi orientamenti strategici, ma il suo fil rouge \u00e8 certamente quello di assicurare al mercato europeo una baseline, un campo di gioco equo e prevedibile \u2013 perch\u00e9 avente <a href=\"https:\/\/infonews.notartel.it\/index.php\/2023\/07\/03\/home_n2_2023\/\"><strong>regole certe e condivise<\/strong><\/a>, appunto \u2013 entro cui imprese e governi possono muoversi. L\u2019investimento nel settore del digitale sia per quanto attiene alla connettivit\u00e0 via piattaforme e rete sia per quanto attiene alle tecniche applicate di intelligenza artificiale alla inedita e dirompente disponibilit\u00e0 di contenuti in formato \u201cdatificato\u201d rappresenta di per s\u00e9 una azione sfidante nella quale la incertezza del settore dipende anche dalla rapidit\u00e0 e dalla volatilit\u00e0 delle innovazioni stesse con gli annessi elementi di conflittualit\u00e0 che questo comporta \u2013 si pensi alle crescenti pronunce delle corti in materia. La terza parola chiave \u00e8 evolutiva. \u00c8 su questa che le riflessioni che seguiranno intendono portare una attenzione esplicativa e prospettica. L&#8217;evolutivit\u00e0, lo si \u00e8 gi\u00e0 detto in diverse sedi, \u00e8 intrinseca alla ricerca scientifica e tecnica in materia di IA. Tuttavia l\u2019elemento che maggiormente coinvolge la <a href=\"https:\/\/infonews.notartel.it\/index.php\/2019\/03\/01\/home_n1_2019\/\"><strong>funzione notarile per la sua duplice essenza privatistica e pubblicistica<\/strong><\/a><strong> <\/strong>\u00e8 quello che discende direttamente all\u2019obbligo previsto dal Regolamento di valutazione preventiva di impatto sui diritti fondamentali di qualsiasi strumenti che si avvalga dell\u2019IA \u2013 anche in via integrativa e non assoluta \u2013 che sia classificato ad alto rischio.<\/p>\n\n\n\n<p>L\u2019elemento valutativo dell\u2019agire istituzionale rappresenta dunque la definizione di un amplissimo orizzonte futuro nel quale vanno costruite sia le griglie, sia le competenze, sia le routine affinch\u00e9 l\u2019oggetto della valutazione \u2013 l\u2019impatto dell\u2019IA \u2013 sia sempre nel perimetro di ci\u00f2 che possiamo conoscere, misurare e, conseguentemente, governare. In altri termini, ancora una volta ma per strada diversa, il Regolamento europeo sull\u2019IA mette l\u2019accento \u2013 e lo fa in modo unico al mondo \u2013 sulla governance attraverso i dati, il che significa che la governance dei dati sar\u00e0 <em>ipso facto<\/em> egualmente strategica ed importante.<\/p>\n\n\n\n<p><strong>Il senso comune<\/strong><\/p>\n\n\n\n<p>Essere capace. Avere la forza. Ossia avere il potere di influenzare le cose. Valutazione \u00e8 un concetto che porta con s\u00e9 la premessa di un impegno ad accettare una premessa a sua volta molto densa di conseguenze ed una responsabilit\u00e0. Si tratta della premessa secondo la quale esiste una capacit\u00e0 e una forza e che sia possibile misurare entrambe con una metrica che \u00e8 condivisa, comunicabile e non arbitraria. Quando alla valutazione si associa l\u2019impatto allora quella metrica si riferisce a qualcosa di pi\u00f9 specifico, ossia si stratta dello standard con cui rilevare quanta influenza si \u00e8 riusciti ad esercitare con quella capacit\u00e0 e quella forza. Perch\u00e9 questo sia possibile occorre accettare il presupposto secondo cui l\u2019impatto \u00e8 finito, ossia \u00e8 possibile identificare un momento nel tempo in cui quell\u2019impatto \u00e8 rilevabile come qualcosa di chiaro, non arbitrario, di diverso per un \u201cdelta\u201d di differenza da quanto c\u2019era in precedenza.<\/p>\n\n\n\n<p>Della valutazione di impatto oggi si avvalgono tutte le forme di progettualit\u00e0, tutte le forme di rendicontazione, ed in generale tutte le forme di razionalit\u00e0 tecnica che si applicano a processi di cambiamento, siano essi di carattere innovativo tecnologico, siano essi di carattere giuridico ed amministrativo, siano essi di carattere economico e sociale. Laddove c\u2019\u00e8 un atto di indirizzo \u2013 l\u2019esercizio di una capacit\u00e0 \u2013 che avvia un cambiamento con uno strumento \u2013 una norma, un investimento economico-finanziario, un programma di formazione \u2013 e che per giustificare, spiegare, rendicontare, ma anche adattare e ridefinire eventualmente quell\u2019atto di indirizzo c\u2019\u00e8 un atto di valutazione dell\u2019impatto.<\/p>\n\n\n\n<p>Nel contesto delle politiche di innovazione tecnologica e di progettazione, sviluppo e diffusione di dispositivi che si avvalgono di tecniche di intelligenza artificiale e di forme di connettivit\u00e0 integrata la valutazione di impatto ha assunto una particolare rilevanza, non solo per il dimensionamento globale dell\u2019impatto \u2013 diretto o indiretto \u2013 ma anche per la imprevedibilit\u00e0 delle evoluzioni tecnologiche che dipendono largamente dai progressi della ricerca scientifica e dalle capacit\u00e0 degli sviluppatori di identificare potenziali di profitto nella commercializzazione dei prodotti e dei servizi che quella ricerca integrano. Ma vi \u00e8 un ulteriore e dirimente aspetto legato proprio alla valutazione dell\u2019impatto, che emerge in modo eclatante quando si parla di intelligenza artificiale o meglio di forme dell\u2019intelligenza artificiale.<\/p>\n\n\n\n<p>Se infatti l\u2019impatto di un indirizzo politico e di una azione di policy \u00e8 da intendersi come l\u2019effetto di cambiamento che essi riescono ad ottenere, la natura particolare dell\u2019agire integrando l\u2019IA implica che esso vada con certezza ad influenzare anche il nostro grado di capacit\u00e0 e la nostra forza \u2013 nostra come societ\u00e0, come istituzioni e come persone \u2013 di tutelare le fondamenta del nostro vivere civico economico sociale e politico, ossia i diritti della persona e le libert\u00e0 fondamentali. Quindi, la misurazione dell\u2019impatto di cui oggi si parla a tutti i livelli istituzionali \u2013 nelle sedi delle Nazioni Unite, a livello europeo, in sede OCSE, in Italia e nelle diverse professioni \u2013 \u00e8 quella che riguarda il quantum di cambiamento indotto dall\u2019IA sulla tutela dei diritti. Si tratta di un quantum che deve essere misurato perch\u00e9 solo misurandolo siamo in grado di controllare il rischio di utilizzare l\u2019IA in modo lesivo rispetto alla garanzia di tutela dei diritti fondamentali.<\/p>\n\n\n\n<p>Si noti che nella ricerca scientifica che riguarda in modo generale la valutazione dell\u2019impatto si tiene in considerazione sia l\u2019impatto volontario ovvero intenzionale sia quello che si genera in modo non intenzionale. La ragione per cui si misurano entrambi \u00e8 importante ed assume una diversa configurazione a seconda dei due casi. Quando si misura l\u2019impatto intenzionale si cerca di suffragare e giustificare il dispiego di risorse politiche economiche e cognitive\/informative. La misurazione serve allora ad argomentare nel senso di sostenere l\u2019efficacia di quello sforzo o atto di indirizzo e la sua validit\u00e0 strumentale \u2013 ottenere l\u2019obiettivo che si \u00e8 prefissato. Quando si misura l\u2019impatto non intenzionale si cerca di gestire l\u2019incertezza e la possibilit\u00e0 di errore ovvero di ridurre rischi o effetti negativi che possano scaturire dal fatto stesso di innescare un processo di cambiamento. Quindi quando si misura l\u2019impatto non intenzionale si cerca di apprendere ad adattare il processo di cambiamento. Le due ragioni della valutazione sono diverse, l\u2019una \u00e8 di rendicontazione di policy, l\u2019altra \u00e8 di adattamento e\/o apprendimento.<\/p>\n\n\n\n<p>Se si applicano questi aspetti generali che la letteratura scientifica ha largamente sviluppato nel corso del XX secolo soprattutto in relazione alle cosiddette policy regolative, quelle che creano nuove regole per orientare cambiamenti di comportamento o di opportunit\u00e0 di crescita o di mitigazione di un rischio, alla sfida portata alle nostre societ\u00e0 democratiche dall\u2019intelligenza artificiale allora si comprende tutta l\u2019importanza del conoscere i due strumenti di misurazione dell\u2019impatto che ad oggi sono presenti nella letteratura istituzionale: la FRIA e l\u2019HUDERIA.<\/p>\n\n\n\n<p><strong>Il Regolamento Europeo sulla IA<\/strong><\/p>\n\n\n\n<p>La Fondamental Right Impact Assessment (FRIA) viene inserita nell\u2019AI ACT, <a href=\"https:\/\/artificialintelligenceact.eu\/article\/29\/\" target=\"_blank\" rel=\"noopener\" title=\"\"><strong>all\u2019articolo 29<\/strong><\/a>, con lo specifico obiettivo di assicurare tre beni pubblici fondamentali:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>La omogeneit\u00e0 della regolazione e della prevenzione dei rischi a livello europeo per tutti gli usi di sistemi ad alto rischio<\/li>\n\n\n\n<li>La fiducia dei cittadini nelle azioni di supporto, diffusione e utilizzo di questi ultimi<\/li>\n\n\n\n<li>La &nbsp;credibilit\u00e0 delle istituzioni regolative che sarebbero, nella cosiddetta ipotesi \u201czero\u201d \u2013 ossia senza quello strumento regolativo inserito all\u2019AI act come FRIA \u2013 nella condizione rischiosa (dove si intende qui rischiosa politicamente) di dovere svolgere un insostenibile organizzativamente parlando sforzo di continuo controllo senza potersi avvalere di alcuna forma di collaborazione e di logica principale-agente nei confronti degli attori che sviluppano, adottano, utilizzano e diffondono strumenti di IA.<\/li>\n<\/ul>\n\n\n\n<p>Poich\u00e9 \u00e8 evidente che ogni strumento ha i suoi limiti oltre ai suoi vantaggi occorre comprendere che tutta la sfida della capacit\u00e0 della FRIA di funzionare da baluardo dinnanzi al potenziale rischio indotto dall\u2019IA \u00e8 legata alla messa in essere di due condizioni pratiche ed operative:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>La disponibilit\u00e0 di un \u201cmetro\u201d per misurare l\u2019impatto<\/li>\n\n\n\n<li>La accettazione di tale metro e di coloro che lo utilizzano da parte di tutti gli attori dell\u2019ecosistema.<\/li>\n<\/ul>\n\n\n\n<p>In altri termini, perch\u00e9 la FRIA possa opportunamente funzionare una delle condizioni essenziali \u00e8 quella di disporre sia di metodi di valutazione condivisi \u2013 altrimenti si rischierebbe la arbitrariet\u00e0 o comunque la disomogeneit\u00e0 fra casi di uso \u2013 sia di dati su cui elaborare tale valutazione. Si tratta di dati che riguardano gli aspetti del grande prisma che noi chiamiamo diritti fondamentali. Fra questi la tutela dei dati personali occupa certamente uno spazio cruciale e vitale.<\/p>\n\n\n\n<p>La FRIA si applica innanzitutto \u2013 ma non solo \u2013 in via preventiva. In altri termini essa \u00e8 intesa, fra le altre cose, come lo strumento che permettendo di mostrare di non essere lesivi dei diritti fondamentali, si \u00e8 giustificati rispetto alle norme di tutela della rule of law e della democrazia a impiegare risorse per sviluppare e diffondere in contesti d\u2019uso specifici l\u2019IA o sue applicazioni o insiemi di sue applicazioni.<\/p>\n\n\n\n<p><strong>Le differenze tra FRIA e HUDERIA<\/strong><\/p>\n\n\n\n<p>Lo <a href=\"https:\/\/rm.coe.int\/cahai-pdg-2021-02-subworkinggroup1-ai-impact-assessment-v1-2769-4229-7\/1680a1bd2d\" target=\"_blank\" rel=\"noopener\" title=\"\"><strong>Human Rights Democracy and Rule of Law Impact Assessment<\/strong><\/a> \u00e8 lo strumento adottato dal Consiglio d\u2019Europa per mettere sviluppatori ed utilizzatori insieme con tutti gli stakeholder dell\u2019ecosistema IA \u2013 quindi lungo tutto il ciclo di vita dell\u2019uso \u2013 di disporre di uno strumento condiviso per misurare, mitigare, imparare ed adattare rispetto all\u2019utilizzo dell\u2019IA o sue forme nell\u2019agire sociale, economico, istituzionale: \u201cLa metodologia HUDERIA \u00e8 specificamente studiata per proteggere e promuovere i diritti umani, la democrazia e lo stato di diritto. Pu\u00f2 essere utilizzato da attori sia pubblici che privati \u200b\u200bper contribuire a identificare e affrontare i rischi e gli impatti sui diritti umani, sulla democrazia e sullo Stato di diritto durante l\u2019intero ciclo di vita dei sistemi di IA. La metodologia prevede la creazione di un piano di mitigazione del rischio per minimizzare o eliminare i rischi identificati, proteggendo il pubblico da potenziali danni\u201d. Nelle parole dello stesso Consiglio d\u2019Europa si nota lo spostamento dell\u2019accento sulla questione degli impatti non volontari che possono scaturire dal fatto che una innovazione adottata non resta eguale a s\u00e9 stessa nel corso del ciclo di vita del suo uso e pertanto qualora generasse effetti non previsti \u2013 e non prevedibili \u2013 ex ante \u00e8 soggetta ad un regolare esercizio di valutazione di impatto in itinere. Continua il Consiglio d\u2019Europa: \u201cSe, ad esempio, un sistema di intelligenza artificiale utilizzato nelle assunzioni si rivelasse distorto rispetto a determinati gruppi demografici, il piano di mitigazione potrebbe comportare l\u2019adeguamento dell\u2019algoritmo o l\u2019implementazione della supervisione umana. La metodologia richiede rivalutazioni regolari per garantire che il sistema di intelligenza artificiale continui a funzionare in modo sicuro ed etico man mano che il contesto e la tecnologia si evolvono. Questo approccio garantisce che il pubblico sia protetto dai rischi emergenti durante tutto il ciclo di vita del sistema di IA\u201d.<\/p>\n\n\n\n<p>Dal punto di vista della concreta attivit\u00e0 di prevenzione tutela e garanzia che le istituzioni notarili svolgono sia nei confronti della funzione notarile e dell\u2019esercizio della professione sia nei confronti della societ\u00e0 democratica italiana e del buon funzionamento del settore pubblico i due strumenti, FRIA e HUDERIA, sono fondamentali e vanno intesi in modo integrato. Se infatti il primo si applica innanzitutto in via preventiva \u00e8 soprattutto al secondo che si affida la capacit\u00e0 di gestire nel corso di vita dell\u2019utilizzo delle innovazioni la continua ridefinizione di baluardi e tutele o di mitigazione dinnanzi ai rischi.<\/p>\n\n\n\n<p>Entrambe, tuttavia, necessitano di tre condizioni di fattibilit\u00e0:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>La disponibilit\u00e0 di metri di misurazione dell\u2019impatto e la sua condivisione a livello istituzionale centrale e diffuso sul territorio<\/li>\n\n\n\n<li>Il monitoraggio anche e soprattutto attraverso il dialogo con la realt\u00e0 quotidiana di utilizzo perch\u00e9 da quella possono arrivare input che permettono di adattare e apprendere meglio come tutelare<\/li>\n\n\n\n<li>La consapevolezza della importanza della valutazione dell\u2019impatto che non deve restare un esercizio tecnocratico a latere ma deve diventare una forma di professionalit\u00e0 dedicata.<\/li>\n<\/ul>\n<\/div>","protected":false},"excerpt":{"rendered":"<p>Ogni cambiamento necessita di un&#8217;attenta valutazione delle sue conseguenze sociali, tecniche, legali: una rivoluzione epocale come quella dell&#8217;IA non fa eccezione.<\/p>\n","protected":false},"author":7,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"_editorskit_title_hidden":false,"_editorskit_reading_time":0,"_editorskit_is_block_options_detached":false,"_editorskit_block_options_position":"{}","footnotes":""},"categories":[203],"tags":[446],"class_list":["post-6156","post","type-post","status-publish","format-standard","hentry","category-di-cosa-parliamo-quando-parliamo-di","tag-newsletter-infonews-del-31-03-2025-n-1"],"acf":[],"aioseo_notices":[],"_links":{"self":[{"href":"https:\/\/www.infonews.notartel.it\/index.php\/wp-json\/wp\/v2\/posts\/6156"}],"collection":[{"href":"https:\/\/www.infonews.notartel.it\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.infonews.notartel.it\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.infonews.notartel.it\/index.php\/wp-json\/wp\/v2\/users\/7"}],"replies":[{"embeddable":true,"href":"https:\/\/www.infonews.notartel.it\/index.php\/wp-json\/wp\/v2\/comments?post=6156"}],"version-history":[{"count":2,"href":"https:\/\/www.infonews.notartel.it\/index.php\/wp-json\/wp\/v2\/posts\/6156\/revisions"}],"predecessor-version":[{"id":6176,"href":"https:\/\/www.infonews.notartel.it\/index.php\/wp-json\/wp\/v2\/posts\/6156\/revisions\/6176"}],"wp:attachment":[{"href":"https:\/\/www.infonews.notartel.it\/index.php\/wp-json\/wp\/v2\/media?parent=6156"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.infonews.notartel.it\/index.php\/wp-json\/wp\/v2\/categories?post=6156"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.infonews.notartel.it\/index.php\/wp-json\/wp\/v2\/tags?post=6156"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}