L’Osservatorio AI, Privacy e Nuove Tecnologie di Rete Nazionale Forense ha redatto una check-list operativa dedicata all’utilizzo dell’intelligenza artificiale negli studi legali.
Si tratta di uno strumento pratico, pensato per supportare gli avvocati nel corretto impiego degli strumenti di AI che prende le mosse dalla individuazione e dalla gestione dei principali profili di rischio connessi all’impiego queste soluzioni tecnologiche e che conducono alla scelta consapevole e ragionata di quali sistemi adottare nella pratica forense.
Un contesto in rapida evoluzione
L’adozione di strumenti di intelligenza artificiale è in costante crescita anche nel settore legale se si considera che le soluzioni tecnologiche che vengono offerte riguardano le più svariate attività, dalla redazione di atti alla ricerca giurisprudenziale, dall’analisi documentale alla gestione di attività amministrative relative allo studio, le tecnologie basate su AI stanno progressivamente entrando nelle attività quotidiane degli studi.
Questa diffusione, tuttavia, avviene spesso in assenza di un quadro di regole interne strutturato e di una piena consapevolezza dei rischi connessi all’impiego di tali strumenti, in particolare con riferimento alla protezione dei dati personali e alla tutela del segreto professionale.
Dalla tecnologia alla responsabilità
L’utilizzo dell’intelligenza artificiale non può essere considerato esclusivamente come una scelta tecnologica, ma implica precise responsabilità giuridiche.
Molto spesso l’attenzione è focalizzata esclusivamente sull’output fornito, mentre viene del tutto ignorato il percorso che porta a quello specifico risultato. Questo non significa che sia necessario essere esperti di tecnologia, o che si debba conoscere in modo approfondito il linguaggio di programmazione o che si debba comprendere il funzionamento degli algoritmi che stanno alla base di quei sistemi. È necessario comprendere le regole base, sia tecniche, sia giuridiche che governano quegli stessi sistemi al solo scopo di conoscerne il funzionamento per poterlo governare, anche con riferimento al tema, delicatissimo, delle responsabilità.
Gli studi legali, in qualità di titolari del trattamento, sono chiamati, per esempio, a garantire il rispetto dei principi previsti dal Regolamento Europeo sulla Protezione dei Dati (GDPR), adottando misure adeguate per prevenire rischi quali la perdita di controllo sui dati, trattamenti non autorizzati, trasferimenti verso Paesi terzi o la compromissione della riservatezza.
In questo contesto, assume particolare rilievo anche la tutela del segreto professionale, che non può essere messa a rischio dall’utilizzo inconsapevole di strumenti tecnologici.
La check-list operativa
Per rispondere a queste esigenze, l’Osservatorio ha elaborato una check-list operativa che consente agli studi legali di effettuare una prima valutazione strutturata dell’utilizzo dell’intelligenza artificiale.
La check-list si articola in cinque diverse sezioni, ciascuna con un focus specifico, la valutazione preliminare, la tipologia di dati trattati, i fornitori utilizzati e i trasferimenti di dati, l’accountability e la conformità e, infine, la sicurezza e l’organizzazione.
Infine, al termine della check-list, sono state evidenziate alcune azioni raccomandate che hanno, come specifico obiettivo, quello di limitare alcuni rischi specifici, quali la perdita di controllo sui dati, la possibile violazione del segreto professionale e l’uso improprio degli output generati dai sistemi di intelligenza artificiale.
Verso un utilizzo consapevole dell’AI
L’intelligenza artificiale rappresenta una risorsa significativa per l’evoluzione della professione forense, ma il suo utilizzo richiede un approccio consapevole e strutturato.
L’Osservatorio ha predisposto questa check-list operativa, semplice, ma efficace, soprattutto per un primo approccio alla gestione degli strumenti di AI all’interno degli studi legali, proprio al fine di consentire una corretta gestione del rischio.
A cura dell’Osservatorio AI, Privacy e Nuove Tecnologie – Rete Nazionale Forense
Foto di Fedorussie da Pixabay
Aggiungi commento
Commenti