Artificial intelligence and justice: what challenges for courts and judicial decision-making?

Intelligenza Artificiale AI
Osservatorio Esecuzioni Immobiliari
Osservatorio Esecuzioni Immobiliari
Osservatorio Esecuzioni Immobiliari
Intelligenza Artificiale -AI-
Intelligenza Artificiale -AI-
Intelligenza Artificiale -AI-
Intelligenza Artificiale -AI-
Intelligenza Artificiale -AI-
Osservatorio Diritto Bancario
Intelligenza Artificiale -AI-
Intelligenza Artificiale -AI-
Vai ai contenuti

Artificial intelligence and justice: what challenges for courts and judicial decision-making?

Intelligenza Artificiale -AI-
Pubblicato da Maria Teresa De Luca in Evidenza · 12 Febbraio 2025
Artificial intelligence and justice: what challenges for courts and judicial decision-making?
Pubblicato nell'ambito del progetto JuLIA “Justice, fundamentaL rIghts and Artificial intelligence” co-finanziato dalla Commissione Europea
Il lavoro non si propone di offrire risposte definitive, ma di sollevare domande e stimolare riflessioni.
L’obiettivo è quello di ispirare giudici e altri esperti del settore giuridico, piuttosto che fornire un compendio completo di informazioni sull’uso dell’intelligenza artificiale (IA) nel campo della giustizia.
Basandosi su esperienze consolidate nella formazione giudiziaria, il lavoro è stato concepito per fornire ai partecipanti – attuali e futuri – una guida, nonché uno spunto per stimolare la partecipazione agli eventi formativi e per approfondimenti nella pratica quotidiana.
Anche se l’uso dell’IA non è ancora parte integrante della pratica ordinaria nel processo decisionale giudiziario, il suo impatto è già tangibile e merita attenzione prima della sua piena attuazione.
Alcuni esperimenti in corso pongono sfide rilevanti: da un lato, l’utilizzo dell’IA e del machine learning per migliorare i motori di ricerca; dall’altro, lo sviluppo di strumenti di risoluzione delle controversie online basati su tecnologie IA.
Ci si interroga su aspetti cruciali: come vengono progettati questi strumenti e da chi? Quali dati – ad esempio le sentenze passate – alimentano i sistemi di apprendimento automatico? Chi è responsabile della selezione dei dati e del loro inserimento nel sistema, sia in fase di sviluppo che durante l’utilizzo? In che modo tali dati possono essere anonimizzati e da chi? Qual è la quantità di dati necessaria per un apprendimento efficace? Come è possibile prevenire i bias?
L’IA è in grado di ridurre i limiti della razionalità umana e i bias nel processo decisionale giudiziario, o rischia di generarne di nuovi? Come si possono garantire il giusto processo e l’equità quando è coinvolta l’IA? Fino a che punto un algoritmo può essere “spiegabile” e supportare una motivazione adeguata delle decisioni? Quali risultati ci si può attendere da uno strumento basato sull’IA nel processo decisionale giudiziario?
Un altro interrogativo riguarda l’autonomia dei giudici: in che misura possono preservarla quando il supporto legale è fornito da strumenti di IA altamente accurati? Tali strumenti compromettono la loro indipendenza? In ultima analisi, l’IA contribuisce a migliorare o a limitare il diritto fondamentale di accesso alla giustizia?
Questi sono solo alcuni dei temi affrontati in questo Manuale, con l’obiettivo di avviare un dibattito consapevole e costruttivo.




© 2020-2025 Studio Legale Avv. Maria Teresa De Luca
TUTTI I DIRITTI RISERVATI
Webmaster: edolabservizi@gmail.com
Webmaster: edolabservizi@gmail.com
© 2020-2025 Studio Legale Avv. Maria Teresa De Luca
TUTTI I DIRITTI RISERVATI
Webmaster: edolabservizi@gmail.com
© 2020-2025 Studio Legale Avv. Maria Teresa De Luca
TUTTI I DIRITTI RISERVATI
Webmaster: edolabservizi@gmail.com
© 2020-2025 Studio Legale Avv. Maria Teresa De Luca
TUTTI I DIRITTI RISERVATI
Torna ai contenuti