<?xml version="1.0" encoding="utf-8"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
	<channel>
		<atom:link href="https://www.studiolegalemtdeluca.it/blog/x5feed.php" rel="self" type="application/rss+xml" />
		<title><![CDATA[]]></title>
		<link>https://www.studiolegalemtdeluca.it/blog/</link>
		<description><![CDATA[]]></description>
		<language>IT</language>
		<lastBuildDate>Thu, 20 Feb 2025 20:56:00 +0100</lastBuildDate>
		<generator>Incomedia WebSite X5 Pro</generator>
		<item>
			<title><![CDATA[Novità nel campo dell’intelligenza artificiale ]]></title>
			<author><![CDATA[Maria Teresa De Luca]]></author>
			<category domain="https://www.studiolegalemtdeluca.it/blog/index.php?category=Evidenza"><![CDATA[Evidenza]]></category>
			<category>imblog</category>
			<description><![CDATA[<div id="imBlogPost_000000066"><div><span class="fs12lh1-5 ff1">Novità nel campo dell’intelligenza
artificiale <br>
<br>
Il panorama dell'intelligenza artificiale del 19
febbraio 2025 si distingue per una serie di sviluppi cruciali che abbracciano
innovazioni tecnologiche, eventi internazionali, normative e investimenti
infrastrutturali. <br>
In Italia, spicca il lancio di Vitruvian-1, il
primo modello AI interamente progettato nel Paese, caratterizzato da 14
miliardi di parametri e ottimizzato per il ragionamento logico in ambiti
multidisciplinari.<br>
Parallelamente, Milano si prepara ad ospitare la
seconda edizione dell'AI Festival, evento cardine per il dibattito
sull'integrazione strategica dell'IA nei processi aziendali e sociali, con la
partecipazione di oltre 160 esperti globali.<br>
Sul fronte normativo, l'AI Act europeo entra in
vigore con disposizioni stringenti su sicurezza e diritti fondamentali,
vietando pratiche come la manipolazione subliminale e l'identificazione
biometrica indiscriminata.<br>
Nel contempo, l'AgID avvia una consultazione
pubblica sulle linee guida per l'adozione etica dell'IA nella Pubblica
Amministrazione, riflettendo una crescita del mercato italiano del 58% nel 2024.<br>
Infine, gli investimenti infrastrutturali
raggiungono picchi significativi con il progetto AI Factory a Bologna,
sostenuto da 2 miliardi di euro e un supercomputer da 430 milioni.<br>
Questi sviluppi delineano un quadro complesso in
cui innovazione, governance e sostenibilità si intrecciano per definire il
futuro dell'IA.<br>
Tuttavia, la sfida principale risiede nel
bilanciamento tra crescita tecnologica e tutela dei diritti. <br>
I casi di Bologna e Milano dimostrano che
investimenti mirati e collaborazione tra settori possono generare ecosistemi
innovativi, mentre le linee guida AgID pongono le basi per un'IA pubblica
trasparente. <br>
Il prossimo passo richiederà un dialogo continuo
tra legislatori, tecnologi e cittadini, garantendo che l'IA serva da leva per
il progresso collettivo senza compromettere i valori fondanti della società
europea.</span></div>

<div><span class="fs12lh1-5 ff1"> </span></div></div>]]></description>
			<pubDate>Thu, 20 Feb 2025 19:56:00 GMT</pubDate>
			<enclosure url="https://www.studiolegalemtdeluca.it/blog/files/1739992934926_thumb.jpg" length="187210" type="image/jpg" />
			<link>https://www.studiolegalemtdeluca.it/blog/?novita-nel-campo-dell-intelligenza-artificiale-</link>
			<guid isPermaLink="false">https://www.studiolegalemtdeluca.it/blog/rss/000000066</guid>
		</item>
		<item>
			<title><![CDATA[Intelligenza artificiale e diritti umani: le sfide emerse al terzo Forum Mondiale sulle Esecuzioni]]></title>
			<author><![CDATA[Maria Teresa De Luca]]></author>
			<category domain="https://www.studiolegalemtdeluca.it/blog/index.php?category=Evidenza"><![CDATA[Evidenza]]></category>
			<category>imblog</category>
			<description><![CDATA[<div id="imBlogPost_000000064"><div class="imTAJustify"><b><span class="fs12lh1-5 ff1">Intelligenza artificiale e diritti umani: le sfide emerse al terzo Forum
Mondiale sulle Esecuzioni</span></b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1"> </span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Il 2 dicembre 2024, nella sede del Consiglio d’Europa a
Strasburgo, si è svolto il terzo Forum mondiale sull’esecuzione dei
provvedimenti giudiziari in ambito civile.<br>
L’evento, organizzato dall’Unione Internazionale degli Ufficiali Giudiziari
(UIHJ) in collaborazione con la Commissione Europea per l’Efficienza della
Giustizia (CEPEJ) del Consiglio d’Europa, ha riunito esperti e operatori del
settore per discutere dell'utilizzo dell’intelligenza artificiale (IA) nei
procedimenti esecutivi e il suo impatto sui diritti fondamentali delle parti
coinvolte.</span></div>

<div class="imTAJustify"><strong><span class="fs12lh1-5 ff1">L’evoluzione dell’IA nei procedimenti esecutivi</span></strong></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">L’introduzione dell’IA nei procedimenti esecutivi, in
particolare nelle esecuzioni immobiliari, ha generato numerosi dibattiti. Da un
lato, l’automazione di alcune fasi della procedura promette di migliorare
l’efficienza, riducendo tempi e costi. L’IA può analizzare grandi quantità di
dati relativi alle proprietà pignorate, individuare rapidamente le migliori
strategie di vendita all’asta e ottimizzare la comunicazione tra gli attori del
processo, come giudici, avvocati, delegati alla vendita e creditori.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Dall’altro lato, però, l’adozione dell’IA solleva
questioni cruciali sul rispetto delle garanzie procedurali e dei diritti delle
parti. Durante il forum, è emerso un consenso sul fatto che l’automazione non
possa mai sostituire integralmente il controllo umano, soprattutto in ambiti
che incidono direttamente su diritti costituzionalmente garantiti, come la
tutela della proprietà e il diritto alla difesa.</span></div>

<div class="imTAJustify"><strong><span class="fs12lh1-5 ff1">Le principali problematiche evidenziate al Forum</span></strong></div>

<div class="imTAJustify"><!--[if !supportLists]--><span class="fs12lh1-5 ff1">1. &nbsp;&nbsp;&nbsp;&nbsp;
<!--[endif]--><strong>Trasparenza
e comprensibilità degli algoritmi:</strong><br>
Un tema ricorrente è stato quello della trasparenza degli strumenti di
intelligenza artificiale utilizzati nelle esecuzioni. Se i meccanismi
decisionali degli algoritmi non sono pienamente comprensibili, si rischia di
compromettere il diritto delle parti a comprendere e contestare le decisioni
che le riguardano. Per garantire un processo equo, è fondamentale che i sistemi
di IA siano trasparenti e che le loro decisioni siano verificabili.</span></div>

<div class="imTAJustify"><!--[if !supportLists]--><span class="fs12lh1-5 ff1">2. &nbsp;&nbsp;&nbsp;&nbsp;
<!--[endif]--><strong>Discriminazioni
e bias algoritmici:</strong><br>
Un altro argomento di preoccupazione è il rischio di bias algoritmici, cioè di
pregiudizi incorporati nei modelli di intelligenza artificiale a causa dei dati
su cui sono stati addestrati. Al Forum, esperti hanno sottolineato la necessità
di una rigorosa supervisione per evitare che questi pregiudizi possano tradursi
in discriminazioni, per esempio, nel trattamento di determinati debitori o
nella selezione delle offerte per l’acquisto di immobili.</span></div>

<div class="imTAJustify"><!--[if !supportLists]--><span class="fs12lh1-5 ff1">3. &nbsp;&nbsp;&nbsp;&nbsp;
<!--[endif]--><strong>Responsabilità
e controllo umano:</strong><br>
Il principio di responsabilità è emerso come cruciale. Nonostante l’utilizzo
dell’IA, le decisioni più rilevanti – come l’approvazione di una vendita
forzata o l’assegnazione di un immobile – devono rimanere sotto il controllo di
un giudice o di un professionista incaricato. La supervisione umana è
essenziale per assicurare che i diritti delle parti siano pienamente rispettati
e per correggere eventuali errori o irregolarità nei procedimenti
automatizzati.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1"><strong>Le prospettive future: verso un’IA etica e responsabile</strong><br>
Il dibattito al Forum ha chiarito che l’IA non è intrinsecamente buona o
cattiva, ma che il suo impatto dipende da come viene progettata, implementata e
supervisionata. I relatori hanno auspicato l’elaborazione di linee guida etiche
per l’uso dell’IA nei procedimenti esecutivi, che includano:</span></div>

<div class="imTAJustify"><!--[if !supportLists]--><span class="fs12lh1-5 ff1">· &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
<!--[endif]-->la certificazione
degli algoritmi utilizzati, per garantirne la conformità a standard di
trasparenza e sicurezza;</span></div>

<div class="imTAJustify"><!--[if !supportLists]--><span class="fs12lh1-5 ff1">· &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
<!--[endif]-->la formazione
continua per magistrati e operatori del settore, in modo che comprendano
appieno le implicazioni tecniche e legali dell’IA;</span></div>

<div class="imTAJustify"><!--[if !supportLists]--><span class="fs12lh1-5 ff1">· &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
<!--[endif]-->la creazione di
meccanismi di audit indipendenti, per monitorare l’impatto dell’IA sui diritti
umani e correggere tempestivamente eventuali deviazioni.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Il Terzo Forum Mondiale sulle Esecuzioni ha offerto una
piattaforma per un confronto costruttivo sul ruolo dell’intelligenza
artificiale nelle procedure esecutive. Sebbene l’IA possa apportare
significativi miglioramenti in termini di efficienza, è fondamentale che la sua
adozione avvenga nel rispetto dei principi fondamentali dello Stato di diritto.
Solo attraverso un’attenta regolamentazione e un approccio etico sarà possibile
sfruttare al meglio le potenzialità dell’IA senza sacrificare i diritti delle
persone coinvolte.</span></div>

<div><span class="fs12lh1-5 ff1"> </span></div></div>]]></description>
			<pubDate>Mon, 17 Feb 2025 16:38:00 GMT</pubDate>
			<enclosure url="https://www.studiolegalemtdeluca.it/blog/files/DALL-E-2025-02-15-18.13.15---Un-illustrazione-stilizzata-che-rappresenta-il-concetto-di-intelligenza-artificiale-nei-procedimenti-esecutivi.-L-immagine-mostra-una-figura-centrale-_thumb.jpg" length="296420" type="image/jpg" />
			<link>https://www.studiolegalemtdeluca.it/blog/?intelligenza-artificiale-e-diritti-umani--le-sfide-emerse-al-terzo-forum-mondiale-sulle-esecuzioni</link>
			<guid isPermaLink="false">https://www.studiolegalemtdeluca.it/blog/rss/000000064</guid>
		</item>
		<item>
			<title><![CDATA[LE PRINCIPALI DIFFERENZE TRA IL PLAYBOOK SULL’INTELLIGENZA ARTIFICIALE PER IL GOVERNO DEL REGNO UNITO E L’AI ACT DELL’UNIONE EUROPEA ]]></title>
			<author><![CDATA[Maria Teresa De Luca]]></author>
			<category domain="https://www.studiolegalemtdeluca.it/blog/index.php?category=Evidenza"><![CDATA[Evidenza]]></category>
			<category>imblog</category>
			<description><![CDATA[<div id="imBlogPost_000000063"><div class="imTAJustify"><b><span class="fs12lh1-5 ff1">LE PRINCIPALI
DIFFERENZE TRA IL PLAYBOOK SULL’INTELLIGENZA ARTIFICIALE PER IL GOVERNO DEL
REGNO UNITO E L’AI ACT DELL’UNIONE EUROPEA </span></b></div>

<div><b><span class="fs12lh1-5 ff1">1. Approccio
Regolatorio</span></b></div>

<div><span class="fs12lh1-5 ff1"><b>Unione Europea: regolamentazione rigorosa e
basata sul rischio</b><br>
L’AI Act dell’UE si basa su un approccio fondato sul rischio e prevede una
regolamentazione dettagliata dei sistemi di intelligenza artificiale,
distinguendoli in quattro categorie:</span></div>

<ul type="disc">
 <li><span class="fs12lh1-5 ff1"><b>Rischio inaccettabile</b>
 &nbsp;&nbsp;&nbsp;&nbsp;(vietati, come il riconoscimento facciale in tempo reale in spazi pubblici
 &nbsp;&nbsp;&nbsp;&nbsp;per scopi di sorveglianza).</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Rischio alto</b> (es. sistemi usati in ambiti critici come
 &nbsp;&nbsp;&nbsp;&nbsp;sanità, giustizia e istruzione, sottoposti a obblighi di conformità
 &nbsp;&nbsp;&nbsp;&nbsp;rigorosi).</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Rischio limitato</b> (sistemi
 &nbsp;&nbsp;&nbsp;&nbsp;che richiedono requisiti di trasparenza, ad esempio chatbot che devono
 &nbsp;&nbsp;&nbsp;&nbsp;identificarsi come tali).</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Rischio minimo</b> (sistemi
 &nbsp;&nbsp;&nbsp;&nbsp;non regolamentati specificamente).</span></li>
</ul>

<div><span class="fs12lh1-5 ff1">Questo approccio mira a garantire la protezione
dei diritti fondamentali dei cittadini europei, la sicurezza e l’affidabilità
dei sistemi AI. È un modello precauzionale, che sacrifica in parte la
flessibilità per assicurare un alto livello di controllo e prevedibilità
giuridica.</span></div>

<div class="imTAJustify"><b><span class="fs12lh1-5 ff1">Regno Unito: regolamentazione
flessibile e principi guida</span></b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Il framework
britannico si distingue per la sua natura più flessibile e meno prescrittiva.
Si basa su <b>linee guida etiche e principi di base</b> che non impongono
obblighi legali vincolanti ma offrono un riferimento per l’utilizzo
responsabile dell’AI.<br>
L’approccio del Regno Unito evita una classificazione basata sul rischio e si
concentra su principi quali:</span></div>

<ul type="disc">
 <li><span class="fs12lh1-5 ff1"><b>Sicurezza e affidabilità</b>: assicurare che i sistemi AI siano progettati per minimizzare i
 &nbsp;&nbsp;&nbsp;&nbsp;rischi.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Trasparenza</b>: garantire che gli utenti comprendano come
 &nbsp;&nbsp;&nbsp;&nbsp;funzionano i sistemi AI.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Contestabilità</b>: offrire agli utenti la possibilità di sfidare decisioni
 &nbsp;&nbsp;&nbsp;&nbsp;automatizzate.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Equità e responsabilità</b>:
 &nbsp;&nbsp;&nbsp;&nbsp;minimizzare i pregiudizi e favorire processi decisionali etici.</span></li>
</ul>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">L’obiettivo è
promuovere la fiducia nei sistemi AI senza soffocare l’innovazione tecnologica
con regolamenti stringenti.</span></div>

<div><b><span class="fs12lh1-5 ff1">2. Ambito di applicazione</span></b></div>

<div class="imTAJustify"><b><span class="fs12lh1-5 ff1">Unione
Europea: un focus specifico sui sistemi AI avanzati</span></b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">L’AI Act si
applica unicamente a quei sistemi che soddisfano determinate condizioni di
autonomia e adattabilità, tipiche dei sistemi di intelligenza artificiale che
possono modificare il loro comportamento senza intervento umano significativo.
L’attenzione è quindi posta sui sistemi che potrebbero avere un impatto
significativo sui diritti fondamentali o sulla sicurezza dei cittadini. Ciò
implica che tecnologie meno avanzate o che non rientrano nelle definizioni
formali di AI potrebbero essere escluse dal regolamento.</span></div>

<div class="imTAJustify"><b><span class="fs12lh1-5 ff1">Regno Unito: applicazione
più ampia e generica</span></b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Le linee guida
britanniche sono pensate per abbracciare qualsiasi utilizzo di tecnologie
automatizzate, anche se non strettamente rientranti nella definizione di
intelligenza artificiale. Ciò consente un campo di applicazione più ampio,
includendo tecnologie non completamente autonome ma che comunque influenzano i
processi decisionali.</span></div>

<div><b><span class="fs12lh1-5 ff1">3. Finalità</span></b></div>

<div class="imTAJustify"><b><span class="fs12lh1-5 ff1">Unione
Europea: protezione dei diritti e certezza legale</span></b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">L’obiettivo
principale dell’UE è tutelare i diritti fondamentali, quali il diritto alla
privacy, alla non discriminazione e alla trasparenza. L’AI Act crea un quadro
normativo chiaro per le imprese, garantendo certezza legale e uniformità in
tutta l’Unione Europea.<br>
Tuttavia, la regolamentazione rigida può essere percepita come un ostacolo alla
competitività, specialmente rispetto a paesi con regolamentazioni più
permissive.</span></div>

<div class="imTAJustify"><b><span class="fs12lh1-5 ff1">Regno Unito: promozione
dell’innovazione tecnologica</span></b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Il Regno Unito
pone un’enfasi maggiore sull’eccellenza tecnologica e sull’innovazione.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Il framework
britannico mira a creare un ambiente favorevole allo sviluppo tecnologico,
evitando normative rigide che potrebbero frenare le start-up e le imprese
tecnologiche. La flessibilità consente un adattamento dinamico a nuove
tecnologie senza dover attendere aggiornamenti normativi formali.</span></div>

<div><b><span class="fs12lh1-5 ff1">Conclusioni</span></b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">In sintesi, le
differenze tra i due approcci possono essere riassunte così:</span></div>

<ul type="disc">
 <li><span class="fs12lh1-5 ff1"><b>L’Unione Europea</b> punta su un modello di regolamentazione precauzionale, con regole
 &nbsp;&nbsp;&nbsp;&nbsp;rigide che proteggono i diritti fondamentali ma possono rallentare
 &nbsp;&nbsp;&nbsp;&nbsp;l’innovazione tecnologica.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Il Regno Unito</b> adotta un approccio liberale, concentrandosi su linee guida etiche e
 &nbsp;&nbsp;&nbsp;&nbsp;flessibili che favoriscono l’innovazione ma lasciano un margine di
 &nbsp;&nbsp;&nbsp;&nbsp;incertezza sull’applicazione pratica.</span></li>
</ul>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Queste
divergenze riflettono due visioni strategiche diverse: da un lato, la sicurezza
e l’affidabilità, dall’altro, la competitività tecnologica. Tale differenza
potrebbe influenzare il posizionamento delle imprese europee e britanniche nei
mercati globali e il loro grado di attrattività per gli investimenti.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1"> </span></div></div>]]></description>
			<pubDate>Wed, 12 Feb 2025 16:59:00 GMT</pubDate>
			<enclosure url="https://www.studiolegalemtdeluca.it/blog/files/5db94fb0-7013-443f-a07b-f5e3c1e55ca4_thumb.jpg" length="603014" type="image/jpg" />
			<link>https://www.studiolegalemtdeluca.it/blog/?le-principali-differenze-tra-il-playbook-sull-intelligenza-artificiale-per-il-governo-del-regno-unito-e-l-ai-act-dell-unione-europea-</link>
			<guid isPermaLink="false">https://www.studiolegalemtdeluca.it/blog/rss/000000063</guid>
		</item>
		<item>
			<title><![CDATA[L’evoluzione della professione legale: le Fusioni tra studi legali e l’integrazione dell’intelligenza artificiale]]></title>
			<author><![CDATA[Maria Teresa De Luca]]></author>
			<category domain="https://www.studiolegalemtdeluca.it/blog/index.php?category=Evidenza"><![CDATA[Evidenza]]></category>
			<category>imblog</category>
			<description><![CDATA[<div id="imBlogPost_000000062"><div class="imTAJustify"><b><span class="fs12lh1-5 ff1">L’evoluzione della professione legale: le Fusioni tra studi legali e l’integrazione
dell’intelligenza artificiale</span></b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Negli ultimi
anni, il panorama giuridico internazionale ha assistito a una crescente
contaminazione tra diritto e tecnologia, con l'intelligenza artificiale (IA) al
centro di questo processo di trasformazione. Le recenti fusioni tra importanti
studi legali statunitensi, come ZwillGen e Luminos.Law, o Fennemore Craig e
Lucent Law, rappresentano casi emblematici di una tendenza destinata a
ridefinire la professione legale. Questi sviluppi sollevano interrogativi
cruciali per i giuristi: quale sarà il ruolo dell’IA nell’evoluzione della
pratica legale? Quali sfide e opportunità si prospettano?</span></div>

<div><b><span class="fs12lh1-5 ff1">Il caso
ZwillGen e Luminos.Law: una divisione dedicata all’IA</span></b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">ZwillGen,
studio legale specializzato in diritto tecnologico e della privacy, ha
recentemente acquisito Luminos.Law, uno studio focalizzato su bias algoritmici
e cybersecurity testing. Questa fusione ha portato alla creazione di una
divisione interamente dedicata all’IA. Marc Zwillinger, fondatore dello studio,
ha evidenziato come i clienti richiedano sempre più assistenza su questioni
complesse legate all’uso responsabile dell’IA, come il rispetto delle normative
in materia di bias e i requisiti di sicurezza informatica. Tale operazione
segna un passo significativo verso una maggiore integrazione tra diritto e
tecnologia avanzata, posizionando ZwillGen tra i leader nel supporto legale
alle aziende che operano in settori regolamentati dall’IA.</span></div>

<div><b><span class="fs12lh1-5 ff1">Il caso
Fennemore Craig e Lucent Law: automazione e modelli tariffari alternativi</span></b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Un altro
esempio rilevante è la fusione tra Fennemore Craig e Lucent Law. Quest’ultima,
specializzata in automazione di processi aziendali e immobiliari, ha sviluppato
una piattaforma che consente la redazione automatizzata di documenti
contrattuali e atti societari. Grazie a questa integrazione, Fennemore Craig
non solo ha migliorato l’efficienza operativa, ma ha anche introdotto modelli
tariffari innovativi, come le flat fees, rispondendo alle crescenti aspettative
dei clienti in termini di trasparenza e valore. Inoltre, la partnership con
OpenAI ha permesso a Fennemore di utilizzare l’IA per ottimizzare i processi
interni, dalla scrittura di documenti legali complessi al pricing dinamico.</span></div>

<div><b><span class="fs12lh1-5 ff1">Le sfide per i
giuristi: nuove competenze e responsabilità</span></b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">L’integrazione
dell’IA nelle professioni legali pone sfide significative per i giuristi, che
devono acquisire competenze sempre più interdisciplinari. Tra i principali
ambiti di attenzione emergono:</span></div>

<ol start="1" type="1">
 <li><span class="fs12lh1-5 ff1"><b>Bias Algoritmici e trasparenza</b>: Gli avvocati sono chiamati a comprendere i meccanismi alla base
 &nbsp;&nbsp;&nbsp;&nbsp;degli algoritmi per garantire che essi rispettino i principi di equità e
 &nbsp;&nbsp;&nbsp;&nbsp;non discriminazione.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Responsabilità professionale</b>: L’uso dell’IA solleva questioni sulla responsabilità in caso di
 &nbsp;&nbsp;&nbsp;&nbsp;errori o decisioni prese sulla base di analisi automatizzate. Chi è
 &nbsp;&nbsp;&nbsp;&nbsp;responsabile? Lo sviluppatore dell’algoritmo, il cliente o il legale che
 &nbsp;&nbsp;&nbsp;&nbsp;lo ha adottato?</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Compliance normativa</b>: I giuristi devono essere in grado di navigare tra normative sempre
 &nbsp;&nbsp;&nbsp;&nbsp;più complesse che regolano l’uso dell’IA, come il Regolamento Europeo
 &nbsp;&nbsp;&nbsp;&nbsp;sull’Intelligenza Artificiale.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Etica e IA</b>:
 &nbsp;&nbsp;&nbsp;&nbsp;L’adozione dell’IA non può prescindere da una riflessione etica. Gli
 &nbsp;&nbsp;&nbsp;&nbsp;avvocati devono assicurarsi che l’IA sia utilizzata in modo responsabile,
 &nbsp;&nbsp;&nbsp;&nbsp;bilanciando efficienza e diritti fondamentali.</span></li>
</ol>

<div><b><span class="fs12lh1-5 ff1">Opportunità
per il futuro: un’IA a supporto del giurista</span></b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Se le sfide
sono numerose, altrettante sono le opportunità offerte dall’IA. Tra i vantaggi
più rilevanti si segnalano:</span></div>

<ul type="disc">
 <li><span class="fs12lh1-5 ff1"><b>efficienza operativa</b>: L’automazione dei processi ripetitivi permette agli avvocati di
 &nbsp;&nbsp;&nbsp;&nbsp;concentrarsi su attività strategiche e ad alto valore aggiunto,
 &nbsp;&nbsp;&nbsp;&nbsp;migliorando la qualità del lavoro.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>personalizzazione dei servizi</b>: Grazie all’analisi dei dati, l’IA consente di offrire soluzioni
 &nbsp;&nbsp;&nbsp;&nbsp;legali sempre più mirate e personalizzate.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>accesso a nuovi mercati</b>: L’utilizzo di piattaforme tecnologiche apre la possibilità di
 &nbsp;&nbsp;&nbsp;&nbsp;operare su scala globale, abbattendo barriere geografiche e linguistiche.</span></li>
</ul>

<div><b><span class="fs12lh1-5 ff1">Conclusione: verso
un nuovo paradigma della professione legale</span></b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">L’evoluzione
tecnologica impone ai giuristi di ripensare il proprio ruolo in un contesto
sempre più dinamico e complesso. L’IA non sostituirà il giurista, ma
trasformerà profondamente le modalità di esercizio della professione,
richiedendo competenze tecniche, capacità analitiche e un approccio etico.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Le fusioni tra
studi legali come ZwillGen e Fennemore Craig dimostrano che l’innovazione è la
chiave per restare competitivi, rispondere alle nuove esigenze dei clienti e
affrontare le sfide del futuro. Per i professionisti del diritto, il momento di
agire è ora: è necessario investire nella formazione, collaborare con esperti
di tecnologia e contribuire attivamente alla definizione di un quadro normativo
che guidi l’uso responsabile dell’IA.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Come
professionisti del diritto, siamo pronti ad accettare questa sfida e a cogliere
le opportunità offerte da un settore in continua trasformazione?</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1"> </span></div></div>]]></description>
			<pubDate>Wed, 12 Feb 2025 16:55:00 GMT</pubDate>
			<enclosure url="https://www.studiolegalemtdeluca.it/blog/files/f8b08e9b-5773-495f-bf8e-594a0ed97df2_thumb.jpg" length="360982" type="image/jpg" />
			<link>https://www.studiolegalemtdeluca.it/blog/?l-evoluzione-della-professione-legale--le-fusioni-tra-studi-legali-e-l-integrazione-dell-intelligenza-artificiale</link>
			<guid isPermaLink="false">https://www.studiolegalemtdeluca.it/blog/rss/000000062</guid>
		</item>
		<item>
			<title><![CDATA[Artificial intelligence and justice: what challenges for courts and judicial decision-making?]]></title>
			<author><![CDATA[Maria Teresa De Luca]]></author>
			<category domain="https://www.studiolegalemtdeluca.it/blog/index.php?category=Evidenza"><![CDATA[Evidenza]]></category>
			<category>imblog</category>
			<description><![CDATA[<div id="imBlogPost_000000060"><div>

</div><div><span class="fs12lh1-5 ff1"><b>Artificial intelligence and justice: what challenges for courts and
judicial decision-making?</b><br>
Pubblicato
nell'ambito del progetto JuLIA “Justice, fundamentaL rIghts and Artificial
intelligence” co-finanziato dalla Commissione Europea<br>
 </span></div><div>

</div><div><span class="fs12lh1-5 ff1">Il
lavoro non si propone di offrire risposte definitive, ma di sollevare domande e
stimolare riflessioni.</span></div><div>

</div><div><span class="fs12lh1-5 ff1">L’obiettivo è
quello di ispirare giudici e altri esperti del settore giuridico, piuttosto che
fornire un compendio completo di informazioni sull’uso dell’intelligenza
artificiale (IA) nel campo della giustizia. </span></div><div>

</div><div><span class="fs12lh1-5 ff1">Basandosi su esperienze
consolidate nella formazione giudiziaria, il lavoro è stato concepito per fornire ai
partecipanti –
attuali e futuri – una
guida, nonché uno
spunto per stimolare la partecipazione agli eventi formativi e per
approfondimenti nella pratica quotidiana.</span></div><div>

</div><div><span class="fs12lh1-5 ff1">Anche se l’uso
dell’IA
non è
ancora parte integrante della pratica ordinaria nel processo decisionale
giudiziario, il suo impatto è già tangibile e merita attenzione
prima della sua piena attuazione. </span></div><div>

</div><div><span class="fs12lh1-5 ff1">Alcuni esperimenti in corso
pongono sfide rilevanti: da un lato, l’utilizzo dell’IA e
del machine learning per migliorare i motori di ricerca; dall’altro,
lo sviluppo di strumenti di risoluzione delle controversie online basati su tecnologie
IA.</span></div><div>

</div><div><span class="fs12lh1-5 ff1">Ci si interroga su aspetti
cruciali: come vengono progettati questi strumenti e da chi? Quali dati – ad
esempio le sentenze passate – alimentano i sistemi di
apprendimento automatico? Chi è responsabile della selezione
dei dati e del loro inserimento nel sistema, sia in fase di sviluppo che
durante l’utilizzo?
In che modo tali dati possono essere anonimizzati e da chi? Qual è la
quantità di
dati necessaria per un apprendimento efficace? Come è possibile prevenire i bias?</span></div><div>

</div><div><span class="fs12lh1-5 ff1">L’IA è in grado di ridurre i limiti
della razionalità
umana e i bias nel processo decisionale giudiziario, o rischia di generarne di
nuovi? Come si possono garantire il giusto processo e l’equità quando è
coinvolta l’IA?
Fino a che punto un algoritmo può essere “spiegabile” e supportare
una motivazione adeguata delle decisioni? Quali risultati ci si può
attendere da uno strumento basato sull’IA nel processo decisionale
giudiziario?</span></div><div>

</div><div><span class="fs12lh1-5 ff1">Un altro interrogativo riguarda
l’autonomia
dei giudici: in che misura possono preservarla quando il supporto legale è
fornito da strumenti di IA altamente accurati? Tali strumenti compromettono la
loro indipendenza? In ultima analisi, l’IA contribuisce a migliorare o
a limitare il diritto fondamentale di accesso alla giustizia?</span></div><div>

</div><div><span class="fs12lh1-5 ff1">Questi
sono solo alcuni dei temi affrontati in questo Manuale, con l’obiettivo
di avviare un dibattito consapevole e costruttivo.</span></div><div><span class="fs12lh1-5 ff1"><a href="https://www.studiolegalemtdeluca.it/files/JuLIA_handbook-Justice_final.pdf" class="imCssLink"><br></a></span></div><div><span class="fs12lh1-5 ff1"><a href="https://www.studiolegalemtdeluca.it/files/JuLIA_handbook-Justice_final.pdf" class="imCssLink">VISUALIZZA ALLEGATO</a></span></div><div>

</div>

<div><span class="fs12lh1-5 ff1"> </span></div></div>]]></description>
			<pubDate>Wed, 12 Feb 2025 16:43:00 GMT</pubDate>
			<enclosure url="https://www.studiolegalemtdeluca.it/blog/files/JuLIA_handbook-Justice_final_thumb.jpg" length="202486" type="image/jpg" />
			<link>https://www.studiolegalemtdeluca.it/blog/?artificial-intelligence-and-justice--what-challenges-for-courts-and-judicial-decision-making-</link>
			<guid isPermaLink="false">https://www.studiolegalemtdeluca.it/blog/rss/000000060</guid>
		</item>
		<item>
			<title><![CDATA[Le Linee Guida della Commissione Europea sulle pratiche vietate di intelligenza artificiale: un'analisi avanzata dei profili giuridici e della tutela della privacy]]></title>
			<author><![CDATA[Maria Teresa De Luca]]></author>
			<category domain="https://www.studiolegalemtdeluca.it/blog/index.php?category=Evidenza"><![CDATA[Evidenza]]></category>
			<category>imblog</category>
			<description><![CDATA[<div id="imBlogPost_00000005F"><div><b><span class="fs12lh1-5 ff1">Le Linee Guida
della Commissione Europea sulle pratiche vietate di intelligenza artificiale:
un'analisi avanzata dei profili giuridici e della tutela della privacy</span></b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Il 4 febbraio
2025, la Commissione Europea ha pubblicato la bozza delle Linee Guida relative
alle pratiche vietate di intelligenza artificiale (IA). Questo documento mira a
chiarire l'applicazione del Regolamento UE 2024/1689 (AI Act), il primo quadro
normativo europeo sistematico sulla regolamentazione dell'IA. Sebbene le Linee
Guida non siano giuridicamente vincolanti, esse rappresentano un riferimento
fondamentale per l'interpretazione delle disposizioni dell'articolo 5 del
Regolamento, che elenca le pratiche di IA vietate poiché incompatibili con i
principi cardine dell'Unione.</span></div>

<div><b><span class="fs12lh1-5 ff1">Quadro normativo
dell’AI Act</span></b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">L’AI Act
utilizza un approccio fondato sulla valutazione del rischio, classificando i
sistemi di IA in quattro categorie: rischio minimo, limitato, elevato e
inaccettabile. I sistemi a rischio inaccettabile, che costituiscono il focus
dell’articolo 5, sono proibiti in quanto incompatibili con principi quali la
dignità umana, la protezione dei dati personali e la sicurezza pubblica.
L’obiettivo principale del Regolamento è la prevenzione dei rischi e
l’istituzione di misure di vigilanza, in modo da garantire che l’utilizzo
dell’IA avvenga nel rispetto dei diritti fondamentali e dei valori europei.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Le Linee Guida
forniscono indicazioni interpretative sui divieti, affrontando temi quali
l’ambito di applicazione, le deroghe previste e l’interazione con normative
complementari, come il GDPR.</span></div>

<div><b><span class="fs12lh1-5 ff1">Analisi delle
pratiche vietate</span></b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">L’articolo 5
del Regolamento sancisce il divieto di specifiche pratiche di IA, considerate
lesive di diritti fondamentali o potenzialmente discriminatorie. Le principali
categorie individuate sono:</span></div>

<ol start="1" type="1">
 <li><span class="fs12lh1-5 ff1"><b>Manipolazione e inganno</b>: Vietato l’impiego di tecniche subliminali o manipolative volte a
 &nbsp;&nbsp;&nbsp;&nbsp;influenzare significativamente il comportamento degli individui,
 &nbsp;&nbsp;&nbsp;&nbsp;compromettendo la loro autonomia decisionale.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Sfruttamento di condizioni vulnerabili</b>: Proibizione di sistemi che sfruttano condizioni di vulnerabilità
 &nbsp;&nbsp;&nbsp;&nbsp;economica, sociale o fisica per indurre scelte pregiudizievoli per
 &nbsp;&nbsp;&nbsp;&nbsp;l’utente.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Social scoring</b>: Divieto di classificare gli individui in base a comportamenti
 &nbsp;&nbsp;&nbsp;&nbsp;personali o professionali, qualora tale classificazione comporti
 &nbsp;&nbsp;&nbsp;&nbsp;trattamenti discriminatori o ingiustificati.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Profilazione del rischio criminale</b>: Vietato l’uso di dati personali per determinare il rischio di
 &nbsp;&nbsp;&nbsp;&nbsp;commissione di reati esclusivamente tramite sistemi automatizzati.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Scraping di dati biometrici</b>: Proibizione della raccolta massiva di immagini facciali senza
 &nbsp;&nbsp;&nbsp;&nbsp;consenso, finalizzata alla creazione di database di riconoscimento
 &nbsp;&nbsp;&nbsp;&nbsp;biometrico.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Riconoscimento delle emozioni</b>: Vietato dedurre le emozioni di individui in contesti come il lavoro
 &nbsp;&nbsp;&nbsp;&nbsp;o l’istruzione, salvo limitate eccezioni.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Categorizzazione biometrica sensibile</b>: Divieto di utilizzo di IA per dedurre caratteristiche sensibili
 &nbsp;&nbsp;&nbsp;&nbsp;quali religione, razza, orientamento politico o appartenenza sindacale.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Identificazione biometrica remota</b>: Proibizione dell’uso di tecnologie di riconoscimento facciale in
 &nbsp;&nbsp;&nbsp;&nbsp;tempo reale in spazi pubblici, salvo deroghe rigorosamente regolamentate.</span></li>
</ol>

<div><b><span class="fs12lh1-5 ff1">Interazione
tra AI Act e protezione dei dati</span></b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Molte delle
pratiche vietate implicano il trattamento di dati personali e biometrici, già
regolamentati dal GDPR. La raccolta massiva di immagini biometriche, ad
esempio, solleva questioni di proporzionalità e legittimità rispetto ai
principi di minimizzazione e specificità della finalità. Inoltre, l’utilizzo di
sistemi di riconoscimento facciale e la profilazione algoritmica pongono sfide
significative in termini di non discriminazione e salvaguardia dei diritti
fondamentali, quali la presunzione di innocenza.</span></div>

<div><b><span class="fs12lh1-5 ff1">Regime
sanzionatorio</span></b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">L’AI Act
prevede sanzioni particolarmente severe per le violazioni dell’articolo 5. Le
imprese rischiano multe fino a 35 milioni di euro o al 7% del fatturato
mondiale. Le autorità di vigilanza nazionali saranno incaricate di monitorare
l’applicazione del Regolamento e di irrogare sanzioni in caso di non
conformità.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Questo regime
sanzionatorio, caratterizzato da un alto livello di deterrenza, mira a
prevenire violazioni sistematiche e a garantire l’adozione di pratiche
conformi. Per gli enti pubblici, è prevista una certa discrezionalità
nell’applicazione delle sanzioni, pur mantenendo l’obbligo di garantire misure
proporzionate e dissuasive.</span></div>

<div><b><span class="fs12lh1-5 ff1">Sfide e
prospettive per le imprese</span></b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Le imprese che
sviluppano o utilizzano sistemi di IA devono affrontare sfide significative per
adeguarsi ai requisiti dell’AI Act. Gli elementi chiave includono:</span></div>

<ul type="disc">
 <li><span class="fs12lh1-5 ff1">L’implementazione di valutazioni d’impatto
 &nbsp;&nbsp;&nbsp;&nbsp;sui rischi, integrando le prescrizioni del GDPR con quelle del Regolamento
 &nbsp;&nbsp;&nbsp;&nbsp;sull’IA.</span></li>
 <li><span class="fs12lh1-5 ff1">La predisposizione di meccanismi di monitoraggio continuo della conformità.</span></li>
 <li><span class="fs12lh1-5 ff1">La formazione del personale per garantire un
 &nbsp;&nbsp;&nbsp;&nbsp;utilizzo etico e responsabile delle tecnologie di IA.</span></li>
 <li><span class="fs12lh1-5 ff1">La documentazione dettagliata delle
 &nbsp;&nbsp;&nbsp;&nbsp;decisioni e dei processi relativi alla conformità normativa.</span></li>
</ul>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Le Linee Guida
rappresentano un tassello fondamentale per la corretta applicazione del
Regolamento UE sull’IA. Tuttavia, rimangono alcune questioni interpretative,
come il coordinamento tra autorità di vigilanza nazionali e garanti della
privacy, e l’individuazione dei limiti tra pratiche vietate e deroghe ammesse.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Il prossimo
passo per le imprese sarà tradurre i principi sanciti dall’AI Act in politiche
operative concrete, bilanciando innovazione tecnologica e tutela dei diritti
fondamentali. Tale processo richiederà un approccio interdisciplinare e una
governance solida, ma offrirà anche un’opportunità per consolidare la fiducia
nell’utilizzo dell’IA.</span></div>

<div><b><span class="fs12lh1-5 ff1">Timeline di implementazione dell’AI Act</span></b></div>

<ul type="disc">
 <li><span class="fs12lh1-5 ff1"><b>2 febbraio 2025</b>: Entrata
 &nbsp;&nbsp;&nbsp;&nbsp;in vigore dei divieti (art. 5).</span></li>
 <li><span class="fs12lh1-5 ff1"><b>2 agosto 2025</b>: Designazione delle autorità di vigilanza nazionali e avvio del
 &nbsp;&nbsp;&nbsp;&nbsp;regime sanzionatorio.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>2 agosto 2026</b>: Inizio
 &nbsp;&nbsp;&nbsp;&nbsp;degli obblighi di conformità per i sistemi di IA ad alto rischio.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>2 agosto 2027</b>: Termine
 &nbsp;&nbsp;&nbsp;&nbsp;per l’adeguamento dei sistemi IA general-purpose già esistenti.</span></li>
</ul>

<div><span class="fs12lh1-5 ff1"> </span></div></div>]]></description>
			<pubDate>Tue, 11 Feb 2025 16:57:00 GMT</pubDate>
			<enclosure url="https://www.studiolegalemtdeluca.it/blog/files/4c6ce752-0442-417d-8131-792881b43532_thumb.jpg" length="451199" type="image/jpg" />
			<link>https://www.studiolegalemtdeluca.it/blog/?le-linee-guida-della-commissione-europea-sulle-pratiche-vietate-di-intelligenza-artificiale--un-analisi-avanzata-dei-profili-giuridici-e-della-tutela-della-privacy</link>
			<guid isPermaLink="false">https://www.studiolegalemtdeluca.it/blog/rss/00000005F</guid>
		</item>
		<item>
			<title><![CDATA[ELON MUSK LANCIA UN'OFFERTA DA 97,4 MILIARDI DI DOLLARI PER IL CONTROLLO DI OPENAI]]></title>
			<author><![CDATA[Maria Teresa De Luca]]></author>
			<category domain="https://www.studiolegalemtdeluca.it/blog/index.php?category=Evidenza"><![CDATA[Evidenza]]></category>
			<category>imblog</category>
			<description><![CDATA[<div id="imBlogPost_00000005E"><div><b class="fs12lh1-5 ff1">ELON MUSK LANCIA UN'OFFERTA DA 97,4 MILIARDI DI DOLLARI
PER IL CONTROLLO DI OPENAI</b></div>

<div><b class="fs12lh1-5 ff1">Un'offerta sorprendente nel mezzo di una battaglia legale</b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Con una mossa che ha scosso il
mondo dell'intelligenza artificiale, un consorzio di investitori guidato dal
magnate della tecnologia Elon Musk ha presentato un'offerta sbalorditiva di
97,4 miliardi di dollari per acquisire il controllo di OpenAI, la startup di
intelligenza artificiale dietro ChatGPT. Questa audace offerta arriva nel mezzo
di un'aspra battaglia legale tra Musk e la società di cui è stato co-fondatore,
con il miliardario che accusa OpenAI di essersi allontanata dalla sua missione
originale di avvantaggiare l'umanità per perseguire il profitto.</span></div>

<div><b class="fs12lh1-5 ff1">La storia travagliata di Musk con OpenAI</b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Il rapporto di Elon Musk con
OpenAI è stato complesso e tumultuoso sin dal suo inizio nel 2015. Inizialmente
co-fondatore e sostenitore iniziale, Musk ha lasciato il consiglio di
amministrazione di OpenAI nel 2018 citando potenziali conflitti di interesse
con lo sviluppo dell'IA di Tesla. La frattura tra Musk e OpenAI si è ampliata
quando la società è passata a un modello di "profitto limitato" nel
2019, una mossa che Musk ha poi affermato violare i principi fondatori
dell'organizzazione.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">In risposta alla direzione in
evoluzione di OpenAI, Musk ha lanciato la sua impresa di IA, xAI, nel 2023.
Questa società ha raggiunto una valutazione di 50 miliardi di dollari in soli
16 mesi, dimostrando il continuo interesse e l'influenza di Musk nel settore
dell'IA. Il rapido successo di xAI e le continue critiche di Musk alle pratiche
di OpenAI hanno preparato il terreno per l'attuale lotta di potere, culminata
nella recente offerta di 97,4 miliardi di dollari per il controllo della sua ex
creatura.</span></div>

<div><b class="fs12lh1-5 ff1">Battaglia legale per il controllo</b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Lo scontro legale si è
intensificato nell'agosto 2024 quando Musk ha intentato una causa accusando
OpenAI di aver abbandonato la sua missione senza scopo di lucro a favore di
motivazioni orientate al profitto allineate agli interessi di Microsoft. OpenAI
ha ribattuto rivelando comunicazioni che suggerivano che Musk inizialmente
sostenne la sua transizione a scopo di lucro, ma si ritirò dopo non essere riuscito
a garantire il controllo della maggioranza. Da allora, la società ha chiesto il
rigetto giudiziario della richiesta di Musk di bloccare la sua conversione,
sostenendo che le sue affermazioni sono incoerenti con le sue azioni passate.
Questa controversia sottolinea le più ampie tensioni sulla governance e le
priorità etiche nello sviluppo dell'IA.</span></div>

<div><b class="fs12lh1-5 ff1">Implicazioni dell'offerta</b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Se l'offerta di Musk dovesse
avere successo, potrebbe potenzialmente rimodellare il panorama dello sviluppo
dell'intelligenza artificiale e riaccendere il coinvolgimento di Musk con il
creatore di ChatGPT. Resta da vedere se l'offerta verrà accettata e come
influenzerà il futuro di OpenAI, ma una cosa è chiara: la posta in gioco è alta
nella competizione per il dominio dell'IA.</span></div></div>]]></description>
			<pubDate>Tue, 11 Feb 2025 16:54:00 GMT</pubDate>
			<enclosure url="https://www.studiolegalemtdeluca.it/blog/files/e7391cab-25eb-499f-9ff7-bbbaa4c98e96--002-_thumb.jpg" length="324008" type="image/jpg" />
			<link>https://www.studiolegalemtdeluca.it/blog/?elon-musk-lancia-un-offerta-da-97,4-miliardi-di-dollari-per-il-controllo-di-openai</link>
			<guid isPermaLink="false">https://www.studiolegalemtdeluca.it/blog/rss/00000005E</guid>
		</item>
		<item>
			<title><![CDATA[GenAI alimenta sempre più le truffe. L’ avvertimento dell’autorità di vigilanza di Wall Street]]></title>
			<author><![CDATA[Maria Teresa De Luca]]></author>
			<category domain="https://www.studiolegalemtdeluca.it/blog/index.php?category=Evidenza"><![CDATA[Evidenza]]></category>
			<category>imblog</category>
			<description><![CDATA[<div id="imBlogPost_00000005D"><div><span class="fs12lh1-5 ff1">GenAI
alimenta sempre più le truffe. L’ avvertimento dell’autorità di vigilanza di
Wall Street<br>
<br>
Negli ultimi mesi, la Financial Industry Regulatory Authority (FINRA) ha messo
in evidenza un trend preoccupante negli Stati Uniti: l’impiego sempre più
sofisticato dell’intelligenza artificiale generativa (GenAI) da parte di
truffatori che prendono di mira le istituzioni finanziarie. <br>
In particolare, questi soggetti sfruttano la GenAI per creare documenti di
identità falsi e persino deepfake—video e audio realistici—con l’obiettivo di
indurre il personale bancario e i clienti a rivelare informazioni riservate,
aprire conti fraudolenti o fornire accessi non autorizzati.<br>
<br>
Una delle tecniche emerse consiste nel generare immagini e firme apparentemente
autentiche, che poi vengono utilizzate per aggirare i sistemi di verifica
tradizionali. <br>
I deepfake, invece, simulano conversazioni con esperti o rappresentanti bancari,
inducendo le vittime a fornire dati sensibili o ad autorizzare transazioni
fraudolente. Questo non solo mette a rischio le finanze individuali e
aziendali, ma mina anche la fiducia complessiva nel sistema finanziario.<br>
<br>
Secondo le stime di FINRA, il fenomeno non mostra segni di rallentamento: si
prevede che le perdite per frodi alimentate dall’IA generativa negli Stati
Uniti possano raggiungere i 40 miliardi di dollari entro il 2027. <br>
Questo dato sottolinea l’urgenza di interventi mirati. FINRA ha ribadito che,
sebbene la GenAI offra indubbiamente vantaggi significativi, dalla
semplificazione dei processi alla riduzione dei costi, la sua adozione deve
essere accompagnata da misure di sicurezza proporzionali. <br>
Tra le raccomandazioni figurano l’adozione di controlli di autenticazione più
avanzati, la formazione continua del personale per riconoscere segnali di
attività sospette e l’aggiornamento costante dei protocolli di sicurezza
informatica.<br>
<br>
Inoltre, FINRA sta lavorando con altri regolatori e con le istituzioni
finanziarie statunitensi per sviluppare linee guida che possano aiutare le
aziende a identificare e mitigare in modo proattivo i rischi emergenti. Questo
tipo di collaborazione, unito a un approccio regolamentare flessibile ma
rigoroso, sarà fondamentale per contrastare l’abuso di queste tecnologie. <br>
Per i professionisti del diritto bancario e della compliance negli Stati Uniti,
il messaggio è chiaro: anticipare le vulnerabilità legate alla GenAI,
approfondire la conoscenza tecnica degli strumenti utilizzati e collaborare con
esperti di sicurezza sono ormai parte integrante del loro ruolo.</span></div></div>]]></description>
			<pubDate>Mon, 03 Feb 2025 16:46:00 GMT</pubDate>
			<enclosure url="https://www.studiolegalemtdeluca.it/blog/files/1738398230513_thumb.jpg" length="278267" type="image/jpg" />
			<link>https://www.studiolegalemtdeluca.it/blog/?genai-alimenta-sempre-piu-le-truffe--l--avvertimento-dell-autorita-di-vigilanza-di-wall-street</link>
			<guid isPermaLink="false">https://www.studiolegalemtdeluca.it/blog/rss/00000005D</guid>
		</item>
		<item>
			<title><![CDATA[THE GROWTH OF AI LAW: EXPLORING LEGAL CHALLENGES IN ARTIFICIAL INTELLIGENCE]]></title>
			<author><![CDATA[Maria Teresa De Luca]]></author>
			<category domain="https://www.studiolegalemtdeluca.it/blog/index.php?category=Evidenza"><![CDATA[Evidenza]]></category>
			<category>imblog</category>
			<description><![CDATA[<div id="imBlogPost_00000005C"><div class="imTAJustify"><em class="fs12lh1-5 ff1">THE GROWTH OF AI LAW: EXPLORING LEGAL CHALLENGES IN ARTIFICIAL INTELLIGENCE</em></div> &nbsp;<div class="imTAJustify"><span class="fs12lh1-5 ff1">L’intelligenza artificiale (IA) sta rapidamente ridefinendo il panorama legale e regolamentare. L’articolo di Shari Davidson, pubblicato sul National Law Review il 28 gennaio 2025, analizza i principali problemi giuridici connessi all’utilizzo sempre più diffuso dell’IA.</span></div> &nbsp;<div class="imTAJustify"><span class="fs12lh1-5 ff1">Le questioni trattate includono la responsabilità per gli errori algoritmici, la gestione dei dati personali, i rischi di bias e discriminazioni sistemiche, nonché le conseguenze per il diritto del lavoro.</span></div> &nbsp;<div class="imTAJustify"><span class="fs12lh1-5 ff1">Davidson rileva come le tradizionali categorie giuridiche, dalla responsabilità civile alla tutela della privacy, vengano messe alla prova dalle peculiarità delle tecnologie IA. Per esempio, chi è responsabile quando un algoritmo genera un risultato inaspettato o dannoso? Come possiamo garantire la conformità ai principi di trasparenza e non discriminazione sanciti dal GDPR e dalle normative simili? E ancora, come si bilanciano i benefici dell’automazione con i diritti dei lavoratori nel caso di licenziamenti causati da processi completamente automatizzati?</span></div> &nbsp;<div class="imTAJustify"><span class="fs12lh1-5 ff1">Uno dei punti più rilevanti dell’articolo è l’osservazione che l’IA non solo solleva nuove domande giuridiche, ma impone anche un ripensamento del ruolo stesso del giurista.</span></div> &nbsp;<div class="imTAJustify"><span class="fs12lh1-5 ff1">Gli avvocati, specialmente quelli specializzati in diritto bancario e tecnologico, non possono più limitarsi a conoscere le normative vigenti: devono comprendere il funzionamento di base degli algoritmi, collaborare con esperti tecnici e anticipare come l’evoluzione della tecnologia influenzerà il quadro regolamentare.</span></div> &nbsp;<div class="imTAJustify"><span class="fs12lh1-5 ff1">Davidson conclude che il successo di questa integrazione dipenderà dall’adozione di un approccio normativo chiaro ma flessibile, che possa adattarsi rapidamente alle nuove sfide. In quest’ottica, la formazione avanzata e la specializzazione dei giuristi diventano elementi chiave: solo con una conoscenza approfondita delle implicazioni legali dell’IA sarà possibile definire standard giuridici equi e sostenibili.</span></div> &nbsp;<div class="imTAJustify"><span class="fs12lh1-5 ff1">Questo articolo rappresenta un importante spunto di riflessione per chiunque sia interessato a esplorare non solo i rischi, ma anche le opportunità che l’IA può portare al settore legale.</span></div> &nbsp;<div class="imTAJustify"><span class="fs12lh1-5 ff1">Se siete interessati a leggere l’intero articolo ecco il link:</span></div><a href="https://natlawreview.com/article/growth-ai-law-exploring-legal-challenges-artificial-intelligence" class="imCssLink"> &nbsp;<span class="fs11lh1-5 ff2">https://natlawreview.com/article/growth-ai-law-exploring-legal-challenges-artificial-intelligence</span></a><br></div>]]></description>
			<pubDate>Wed, 29 Jan 2025 18:47:00 GMT</pubDate>
			<enclosure url="https://www.studiolegalemtdeluca.it/blog/files/5d22d60b-5fb3-4646-82e0-ec3315d8760e_thumb.jpg" length="406066" type="image/jpg" />
			<link>https://www.studiolegalemtdeluca.it/blog/?the-growth-of-ai-law--exploring-legal-challenges-in-artificial-intelligence</link>
			<guid isPermaLink="false">https://www.studiolegalemtdeluca.it/blog/rss/00000005C</guid>
		</item>
		<item>
			<title><![CDATA[ChatGPT vs. DeepSeek: confronto tra due giganti dell'intelligenza artificiale]]></title>
			<author><![CDATA[Maria Teresa De Luca]]></author>
			<category domain="https://www.studiolegalemtdeluca.it/blog/index.php?category=Evidenza"><![CDATA[Evidenza]]></category>
			<category>imblog</category>
			<description><![CDATA[<div id="imBlogPost_00000005B"><div><span class="fs12lh1-5 ff1">ChatGPT vs. DeepSeek: confronto tra due giganti
dell'intelligenza artificiale</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Negli ultimi anni, l'intelligenza
artificiale ha fatto passi da gigante, con modelli di linguaggio che hanno
rivoluzionato il modo in cui interagiamo con la tecnologia. Due dei nomi più
noti in questo campo sono ChatGPT di OpenAI e DeepSeek, un modello open source
emergente. </span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">ChatGPT è stato sviluppato da
OpenAI ed è un modello closed source. Ciò significa che il codice sorgente non
è accessibile al pubblico, limitando la possibilità di personalizzazione. </span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Al contrario, DeepSeek è un
modello open source creato da una startup cinese. Questo approccio consente a
chiunque di accedere al codice, modificarlo e migliorarlo, promuovendo la
trasparenza nell'IA.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">ChatGPT utilizza un'architettura
complessa e altamente ottimizzata per una vasta gamma di applicazioni, dalla
generazione di testo alla comprensione del linguaggio naturale.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">DeepSeek V3, invece, sfrutta
un'architettura con 671 miliardi di parametri, attivando solo 37 miliardi per
ogni risposta. Questo approccio non solo migliora la velocità e l'efficienza,
ma ha anche dimostrato prestazioni superiori in ambiti specifici come
matematica e programmazione.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">L'accesso a ChatGPT può
comportare costi significativi, specialmente per le aziende che necessitano di
utilizzi intensivi. I modelli closed source tendono ad avere spese elevate per
l'addestramento e l'implementazione. Al contrario, DeepSeek è gratuito e
progettato per essere facilmente accessibile. Il suo costo di addestramento è
inferiore rispetto ai modelli simili di OpenAI, rendendolo una scelta attraente
per sviluppatori e piccole imprese.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Entrambi i modelli offrono
funzionalità avanzate nella generazione di testo.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Tuttavia, DeepSeek si distingue
per la sua capacità di analizzare file PDF e immagini contenenti testo.
Inoltre, offre una modalità "Deep Think" che mostra il ragionamento
del modello prima di fornire una risposta. Questa funzionalità può risultare
particolarmente utile in contesti educativi o professionali dove la trasparenza
del processo decisionale è fondamentale.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">La nascita di DeepSeek è avvenuta
in un contesto di restrizioni americane sulle esportazioni tecnologiche,
spingendo la startup a innovare con risorse più economiche e disponibili.
Questo ha permesso a DeepSeek di emergere come un concorrente significativo nel
campo dell'intelligenza artificiale generativa.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">In intesi, mentre ChatGPT
rappresenta un modello consolidato nel panorama dell'IA con un approccio closed
source, DeepSeek offre un'alternativa open source con costi ridotti e
prestazioni competitive in settori specifici.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">La scelta tra i due dipende dalle
esigenze individuali o aziendali: se si cerca un modello altamente ottimizzato
ma costoso o una soluzione accessibile e personalizzabile.</span></div>

<div><span class="fs12lh1-5 ff1"> </span></div></div>]]></description>
			<pubDate>Wed, 29 Jan 2025 07:31:00 GMT</pubDate>
			<enclosure url="https://www.studiolegalemtdeluca.it/blog/files/ai.jpg_thumb.jpg" length="271749" type="image/jpg" />
			<link>https://www.studiolegalemtdeluca.it/blog/?chatgpt-vs--deepseek--confronto-tra-due-giganti-dell-intelligenza-artificiale</link>
			<guid isPermaLink="false">https://www.studiolegalemtdeluca.it/blog/rss/00000005B</guid>
		</item>
		<item>
			<title><![CDATA[CAN A COMPUTER LEARN TO SPEAK TRADER? ]]></title>
			<author><![CDATA[Maria Teresa De Luca]]></author>
			<category domain="https://www.studiolegalemtdeluca.it/blog/index.php?category=Evidenza"><![CDATA[Evidenza]]></category>
			<category>imblog</category>
			<description><![CDATA[<div id="imBlogPost_00000005A"><div><span class="fs12lh1-5 ff1">CAN A COMPUTER LEARN TO SPEAK TRADER? </span></div><div><span class="fs12lh1-5 ff1">Recentemente, il Wall Street Journal ha evidenziato come le società di compliance stiano utilizzando l'intelligenza artificiale (IA) per decifrare il linguaggio in codice utilizzato dai trader.</span></div><div><span class="fs12lh1-5 ff1">Questa innovazione mira a migliorare la capacità delle istituzioni finanziarie di individuare attività illecite, riducendo al contempo la necessità di supervisione manuale.</span></div><div><span class="fs12lh1-5 ff1">Tuttavia, l'implementazione dell'IA nel settore bancario solleva preoccupazioni riguardanti la privacy dei dati e la sicurezza informatica.</span></div><div><span class="fs12lh1-5 ff1">È fondamentale che le banche bilancino l'adozione di queste tecnologie avanzate con misure adeguate per proteggere le informazioni sensibili dei clienti.</span></div><div><span class="fs12lh1-5 ff1">https://www.wsj.com/articles/can-a-computer-learn-to-speak-trader-7695fbc9?reflink=desktopwebshare_permalink</span></div><div><br></div></div>]]></description>
			<pubDate>Wed, 22 Jan 2025 12:08:00 GMT</pubDate>
			<enclosure url="https://www.studiolegalemtdeluca.it/blog/files/large-3240345_thumb.jpg" length="350188" type="image/jpg" />
			<link>https://www.studiolegalemtdeluca.it/blog/?can-a-computer-learn-to-speak-trader--</link>
			<guid isPermaLink="false">https://www.studiolegalemtdeluca.it/blog/rss/00000005A</guid>
		</item>
		<item>
			<title><![CDATA[ARTIFICIAL INTELLIGENCE IN FINANCIAL SERVICES]]></title>
			<author><![CDATA[Maria Teresa De Luca]]></author>
			<category domain="https://www.studiolegalemtdeluca.it/blog/index.php?category=Evidenza"><![CDATA[Evidenza]]></category>
			<category>imblog</category>
			<description><![CDATA[<div id="imBlogPost_000000059"><div class="imTAJustify"><span class="fs12lh1-5 ff1">ARTIFICIAL INTELLIGENCE IN FINANCIAL SERVICES</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Il 19 dicembre 2024, il Dipartimento del Tesoro
degli Stati Uniti ha pubblicato un rapporto sull'uso dell'intelligenza
artificiale (IA) nei servizi finanziari.<br>
Il rapporto che esplora l’adozione dell’intelligenza artificiale nel settore
finanziario, presentando sia le opportunità che i rischi associati. <br>
Secondo il documento, il 60% delle grandi istituzioni finanziarie statunitensi
utilizza già modelli di IA per migliorare la gestione del rischio e ottimizzare
i costi operativi. <br>
Questi strumenti consentono di analizzare milioni di transazioni al secondo,
rilevando potenziali frodi con una velocità e una precisione che superano di
gran lunga i metodi tradizionali.<br>
Tuttavia, il rapporto segnala anche che il 25% degli algoritmi impiegati mostra
ancora evidenti bias nei confronti di determinate categorie di clienti,
sollevando preoccupazioni etiche e regolamentari.<br>
Il Tesoro stima inoltre che il volume di dati sensibili gestiti da sistemi di
IA crescerà del 35% nei prossimi tre anni, sottolineando la necessità di
standard più rigidi sulla privacy e sulla sicurezza dei dati.<br>
Questi numeri dimostrano che, mentre l’intelligenza artificiale può
rappresentare una rivoluzione nel settore finanziario, rimane cruciale
affrontare con urgenza le sue implicazioni legali e normative. <br>
È essenziale che le istituzioni finanziarie adottino framework di compliance
chiari e che si promuova una governance solida, capace di bilanciare
l’innovazione tecnologica con la tutela dei diritti dei consumatori.</span></div><div class="imTAJustify"><span class="fs12lh1-5 ff1"><br></span></div><div class="imTAJustify"><span class="fs12lh1-5 ff1"><a href="https://www.studiolegalemtdeluca.it/files/Artificial-Intelligence-in-Financial-Services.pdf" class="imCssLink">VISUALIZZA ALLEGATI</a></span></div></div>]]></description>
			<pubDate>Wed, 22 Jan 2025 11:56:00 GMT</pubDate>
			<enclosure url="https://www.studiolegalemtdeluca.it/blog/files/Pagine-da-Artificial-Intelligence-in-Financial-Services_thumb.jpg" length="276095" type="image/jpg" />
			<link>https://www.studiolegalemtdeluca.it/blog/?artificial-intelligence-in-financial-services</link>
			<guid isPermaLink="false">https://www.studiolegalemtdeluca.it/blog/rss/000000059</guid>
		</item>
		<item>
			<title><![CDATA[L’Intelligenza Artificiale nel Settore Legale Bancario: Opportunità e Sfide]]></title>
			<author><![CDATA[Maria Teresa De Luca]]></author>
			<category domain="https://www.studiolegalemtdeluca.it/blog/index.php?category=Evidenza"><![CDATA[Evidenza]]></category>
			<category>imblog</category>
			<description><![CDATA[<div id="imBlogPost_000000058"><div><b><span class="fs12lh1-5 ff1">L’Intelligenza
Artificiale nel Settore Legale Bancario: Opportunità e Sfide</span></b></div>

<div><span class="fs12lh1-5 ff1">L’intelligenza artificiale (IA) sta ridefinendo
il panorama del diritto bancario, offrendo significative opportunità di
innovazione e, al contempo, sollevando complessi interrogativi giuridici.
Questo articolo intende fornire un’analisi approfondita delle principali
applicazioni dell’IA nel settore legale bancario, evidenziando le relative
implicazioni normative e i rischi connessi, con particolare attenzione al ruolo
del giurista specializzato.</span></div>

<div align="center" class="imTACenter"><span class="fs12lh1-5 ff1">

</span><hr size="2" width="100%" align="center"><span class="fs12lh1-5 ff1">

</span></div>

<div><b><span class="fs12lh1-5 ff1">Applicazioni
dell’IA nel Settore Legale Bancario</span></b></div>

<ol start="1" type="1">
 <li><span class="fs12lh1-5 ff1"><b>Automazione delle Analisi Contrattuali:</b> Gli strumenti di IA consentono di analizzare grandi volumi di
 &nbsp;&nbsp;&nbsp;&nbsp;contratti bancari, identificando clausole rilevanti e potenziali rischi
 &nbsp;&nbsp;&nbsp;&nbsp;con una precisione senza precedenti.</span></li>
 <ul type="circle">
 &nbsp;<li><span class="fs12lh1-5 ff1"><i>Beneficio per i professionisti del diritto:</i> Riduzione dei tempi di revisione legale e maggiore accuratezza nella
 &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;rilevazione di elementi critici.</span></li>
 </ul>
 <li><span class="fs12lh1-5 ff1"><b>Compliance e Monitoraggio Normativo:</b> Sistemi
 &nbsp;&nbsp;&nbsp;&nbsp;basati sull’IA monitorano in tempo reale i cambiamenti normativi,
 &nbsp;&nbsp;&nbsp;&nbsp;valutando automaticamente l’impatto sui processi bancari e supportando
 &nbsp;&nbsp;&nbsp;&nbsp;l’adeguamento tempestivo.</span></li>
 <ul type="circle">
 &nbsp;<li><span class="fs12lh1-5 ff1"><i>Vantaggio:</i> Migliore gestione della
 &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;conformità normativa senza sovraccaricare i team legali.</span></li>
 </ul>
 <li><span class="fs12lh1-5 ff1"><b>Gestione delle Dispute:</b>
 &nbsp;&nbsp;&nbsp;&nbsp;Algoritmi avanzati e chatbot giuridici possono gestire preliminarmente
 &nbsp;&nbsp;&nbsp;&nbsp;reclami e controversie, agevolando la risoluzione di dispute in fase
 &nbsp;&nbsp;&nbsp;&nbsp;iniziale.</span></li>
 <ul type="circle">
 &nbsp;<li><span class="fs12lh1-5 ff1"><i>Impatto:</i> Contenimento dei costi
 &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;legali e ottimizzazione dei tempi di gestione.</span></li>
 </ul>
 <li><span class="fs12lh1-5 ff1"><b>Prevenzione delle Frodi:</b> L’IA
 &nbsp;&nbsp;&nbsp;&nbsp;identifica schemi sospetti nelle transazioni, contribuendo a prevenire
 &nbsp;&nbsp;&nbsp;&nbsp;frodi finanziarie.</span></li>
 <ul type="circle">
 &nbsp;<li><span class="fs12lh1-5 ff1"><i>Implicazione:</i>
 &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;Incremento della protezione legale delle banche e dei loro clienti.</span></li>
 </ul>
</ol>

<div align="center" class="imTACenter"><span class="fs12lh1-5 ff1">

</span><hr size="2" width="100%" align="center"><span class="fs12lh1-5 ff1">

</span></div>

<div><b><span class="fs12lh1-5 ff1">Sfide
Giuridiche e Rischi</span></b></div>

<ol start="1" type="1">
 <li><span class="fs12lh1-5 ff1"><b>Responsabilità degli Algoritmi:</b> La
 &nbsp;&nbsp;&nbsp;&nbsp;responsabilità per eventuali errori commessi da sistemi di IA rimane una
 &nbsp;&nbsp;&nbsp;&nbsp;questione aperta.</span></li>
 <ul type="circle">
 &nbsp;<li><span class="fs12lh1-5 ff1"><i>Punto critico:</i>
 &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;Definire il quadro normativo per attribuire la responsabilità tra la
 &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;banca, il fornitore del software o altre parti coinvolte.</span></li>
 </ul>
 <li><span class="fs12lh1-5 ff1"><b>Bias Algoritmico:</b> Gli
 &nbsp;&nbsp;&nbsp;&nbsp;algoritmi possono perpetuare o amplificare discriminazioni, ad esempio nei
 &nbsp;&nbsp;&nbsp;&nbsp;processi decisionali relativi alla concessione di crediti.</span></li>
 <ul type="circle">
 &nbsp;<li><span class="fs12lh1-5 ff1"><i>Esigenza:</i> Garantire che i modelli
 &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;siano progettati per rispettare principi di equità e non discriminazione.</span></li>
 </ul>
 <li><span class="fs12lh1-5 ff1"><b>Conformità al GDPR:</b>
 &nbsp;&nbsp;&nbsp;&nbsp;L’utilizzo dell’IA per analizzare dati personali richiede una rigorosa
 &nbsp;&nbsp;&nbsp;&nbsp;aderenza alle disposizioni del Regolamento Generale sulla Protezione dei
 &nbsp;&nbsp;&nbsp;&nbsp;Dati (GDPR).</span></li>
 <ul type="circle">
 &nbsp;<li><span class="fs12lh1-5 ff1"><i>Sfida:</i> Integrare l’IA nei processi
 &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;bancari assicurando la piena tutela della privacy dei clienti.</span></li>
 </ul>
 <li><span class="fs12lh1-5 ff1"><b>Cybersecurity:</b> I
 &nbsp;&nbsp;&nbsp;&nbsp;sistemi di IA possono diventare bersaglio di attacchi informatici
 &nbsp;&nbsp;&nbsp;&nbsp;sofisticati, compromettendo dati sensibili.</span></li>
 <ul type="circle">
 &nbsp;<li><span class="fs12lh1-5 ff1"><i>Soluzione:</i> Implementare misure avanzate
 &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;di protezione dei sistemi e di risposta agli incidenti.</span></li>
 </ul>
</ol>

<div align="center" class="imTACenter"><span class="fs12lh1-5 ff1">

</span><hr size="2" width="100%" align="center"><span class="fs12lh1-5 ff1">

</span></div>

<div><b><span class="fs12lh1-5 ff1">Normative di
Riferimento</span></b></div>

<ul type="disc">
 <li><span class="fs12lh1-5 ff1"><b>Regolamento sull’IA dell’Unione Europea:</b> La proposta mira a creare un quadro normativo uniforme per garantire
 &nbsp;&nbsp;&nbsp;&nbsp;sicurezza, trasparenza e rispetto dei diritti fondamentali nell’impiego di
 &nbsp;&nbsp;&nbsp;&nbsp;sistemi di IA.</span></li>
 <ul type="circle">
 &nbsp;<li><span class="fs12lh1-5 ff1"><i>Ruolo del giurista:</i>
 &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;Assistere le banche nell’adattamento contrattuale e procedurale alle
 &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;nuove disposizioni.</span></li>
 </ul>
 <li><span class="fs12lh1-5 ff1"><b>Linee guida GDPR:</b> Il
 &nbsp;&nbsp;&nbsp;&nbsp;trattamento di dati personali mediante sistemi automatizzati deve
 &nbsp;&nbsp;&nbsp;&nbsp;rispettare gli obblighi di trasparenza, responsabilità e protezione
 &nbsp;&nbsp;&nbsp;&nbsp;stabiliti dal GDPR.</span></li>
</ul>

<div align="center" class="imTACenter"><span class="fs12lh1-5 ff1">

</span><hr size="2" width="100%" align="center"><span class="fs12lh1-5 ff1">

</span></div>

<div><b><span class="fs12lh1-5 ff1">Il ruolo del
Giurista Specializzato</span></b></div>

<div><span class="fs12lh1-5 ff1">I giuristi operanti nel settore bancario svolgono
un ruolo fondamentale nella regolamentazione e nell’implementazione dei sistemi
di IA. In particolare, essi devono:</span></div>

<ol start="1" type="1">
 <li><span class="fs12lh1-5 ff1">Redigere contratti che disciplinino l’utilizzo di strumenti di IA,
 &nbsp;&nbsp;&nbsp;&nbsp;prevedendo clausole chiare in materia di responsabilità.</span></li>
 <li><span class="fs12lh1-5 ff1">Garantire che i processi decisionali automatizzati rispettino i
 &nbsp;&nbsp;&nbsp;&nbsp;principi di liceità, correttezza e trasparenza.</span></li>
 <li><span class="fs12lh1-5 ff1">Fornire consulenza strategica per la gestione dei rischi legali e
 &nbsp;&nbsp;&nbsp;&nbsp;regolamentari associati all’IA.</span></li>
</ol>

<div align="center" class="imTACenter"><span class="fs12lh1-5 ff1">

</span><hr size="2" width="100%" align="center"><span class="fs12lh1-5 ff1">

</span></div>

<div><b><span class="fs12lh1-5 ff1">Conclusione</span></b></div>

<div><span class="fs12lh1-5 ff1">L’adozione dell’intelligenza artificiale nel
settore legale bancario rappresenta un’opportunità unica per migliorare
l’efficienza e l’accuratezza dei processi. Tuttavia, ciò richiede una gestione
accorta dei rischi e un’adeguata preparazione da parte dei giuristi, che
saranno chiamati a svolgere un ruolo strategico nell’integrazione sicura e
conforme di queste tecnologie.</span></div>

<div align="center" class="imTACenter"><span class="fs12lh1-5 ff1">

</span><hr size="2" width="100%" align="center"><span class="fs12lh1-5 ff1">

</span></div>

<div><span class="fs12lh1-5 ff1"> </span></div></div>]]></description>
			<pubDate>Mon, 30 Dec 2024 16:59:00 GMT</pubDate>
			<enclosure url="https://www.studiolegalemtdeluca.it/blog/files/5a3bfdc5-6ffb-4333-bb49-6a7a8250e0eb_thumb.jpg" length="350794" type="image/jpg" />
			<link>https://www.studiolegalemtdeluca.it/blog/?l-intelligenza-artificiale-nel-settore-legale-bancario--opportunita-e-sfide</link>
			<guid isPermaLink="false">https://www.studiolegalemtdeluca.it/blog/rss/000000058</guid>
		</item>
		<item>
			<title><![CDATA[Le API e le nuove frontiere del diritto tecnologico]]></title>
			<author><![CDATA[Maria Teresa De Luca]]></author>
			<category domain="https://www.studiolegalemtdeluca.it/blog/index.php?category=Evidenza"><![CDATA[Evidenza]]></category>
			<category>imblog</category>
			<description><![CDATA[<div id="imBlogPost_000000057"><div class="imTAJustify"><b><span class="fs12lh1-5 ff1">Le API e le
nuove frontiere del diritto tecnologico</span></b></div>

<div class="imTAJustify"><b><span class="fs12lh1-5 ff1">Introduzione: la rivoluzione delle API nel panorama tecnologico e giuridico</span></b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Il termine <b>API</b>,
acronimo di <i>Application Programming Interface</i>, definisce uno strumento
tecnologico essenziale nel mondo digitale contemporaneo. Le API costituiscono
interfacce che consentono a diverse applicazioni o sistemi software di
comunicare tra loro, condividendo funzionalità o dati in modo standardizzato.
Sebbene la loro funzione principale sia eminentemente tecnica, le implicazioni
giuridiche legate all'uso delle API sono sempre più rilevanti in un contesto in
cui il diritto si confronta con le nuove tecnologie.</span></div>

<div class="imTAJustify"><b><span class="fs12lh1-5 ff1">1. Definizione e funzionamento delle API</span></b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Dal punto di
vista tecnico, le API rappresentano una "porta di accesso" che
permette a un sistema software di interagire con un altro. Esse forniscono
regole standardizzate attraverso cui le applicazioni possono richiedere dati o
attivare funzioni specifiche. Un esempio comune è l’integrazione di sistemi di
pagamento come PayPal in siti di e-commerce tramite API, o la condivisione di
dati tra piattaforme social e applicazioni di terze parti.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Le API possono
essere classificate in diverse tipologie, tra cui:</span></div>

<ul type="disc">
 <li><span class="fs12lh1-5 ff1"><b>API pubbliche</b>: accessibili a sviluppatori esterni, spesso con restrizioni e licenze
 &nbsp;&nbsp;&nbsp;&nbsp;d’uso;</span></li>
 <li><span class="fs12lh1-5 ff1"><b>API private</b>: utilizzate all’interno di un’organizzazione per collegare sistemi
 &nbsp;&nbsp;&nbsp;&nbsp;interni;</span></li>
 <li><span class="fs12lh1-5 ff1"><b>API partner</b>: condivise con partner commerciali per specifiche integrazioni.</span></li>
</ul>

<div class="imTAJustify"><b><span class="fs12lh1-5 ff1">2. Protezione dei dati personali e responsabilità delle API</span></b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">In un mondo
sempre più interconnesso, molte API vengono utilizzate per accedere e
trasferire dati personali o sensibili. Da qui l’esigenza di garantire la
conformità alle normative sulla protezione dei dati, come il <b>Regolamento
Generale sulla Protezione dei Dati (GDPR)</b>.</span></div>

<div class="imTAJustify"><b><span class="fs12lh1-5 ff1">2.1. Le principali sfide normative</span></b></div>

<ul type="disc">
 <li><span class="fs12lh1-5 ff1"><b>Trasferimento internazionale di dati</b>: Quando un’API collega sistemi situati in diverse giurisdizioni, è
 &nbsp;&nbsp;&nbsp;&nbsp;necessario valutare la liceità dei trasferimenti transfrontalieri.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Consenso e trasparenza</b>: Gli utenti finali devono essere adeguatamente informati sull’uso dei
 &nbsp;&nbsp;&nbsp;&nbsp;loro dati attraverso API e, ove richiesto, fornire il proprio consenso.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Sicurezza dei dati</b>: La progettazione delle API deve includere misure tecniche per
 &nbsp;&nbsp;&nbsp;&nbsp;prevenire accessi non autorizzati, violazioni e fughe di dati.</span></li>
</ul>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Un caso
emblematico è rappresentato dal <b>Data Transfer Project</b>, un’iniziativa
promossa da colossi tecnologici come Google, Microsoft e Facebook, che utilizza
API per consentire la portabilità dei dati degli utenti tra diverse
piattaforme. Questo progetto ha evidenziato l’importanza di standard globali e
regole uniformi per gestire la portabilità in modo conforme al GDPR.</span></div>

<div class="imTAJustify"><b><span class="fs12lh1-5 ff1">3. Proprietà intellettuale e licenze d’uso</span></b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Uno degli
aspetti più complessi legati alle API riguarda la loro tutela sotto il profilo
della <b>proprietà intellettuale</b>. Le API possono essere protette come opere
dell’ingegno (ad esempio, come software), ma il loro carattere di
"interfaccia condivisa" genera dibattiti sull’estensione della
tutela.</span></div>

<div class="imTAJustify"><b><span class="fs12lh1-5 ff1">3.1. La giurisprudenza europea e internazionale</span></b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Un caso di
riferimento è la sentenza della Corte Suprema degli Stati Uniti nel caso <b>Google
LLC v. Oracle America, Inc.</b>, in cui si è discusso della liceità della copia
di alcune porzioni di codice API da parte di Google per lo sviluppo di Android.
La Corte ha stabilito che tale copia rientrava nell’uso equo (<i>fair use</i>),
aprendo un dibattito sull’equilibrio tra innovazione tecnologica e tutela della
proprietà intellettuale.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">In ambito
europeo, il diritto d’autore protegge il software e le sue componenti, ma la
giurisprudenza tende a riconoscere che le interfacce funzionali, come le API,
possano essere utilizzate per garantire interoperabilità, nel rispetto delle
normative sulle licenze.</span></div>

<div class="imTAJustify"><b><span class="fs12lh1-5 ff1">4. Contratti tecnologici e responsabilità</span></b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Nel contesto
contrattuale, le API possono essere oggetto di accordi che regolano il loro
utilizzo, accesso e manutenzione. I contratti di licenza o di sviluppo software
spesso includono clausole relative a:</span></div>

<ul type="disc">
 <li><span class="fs12lh1-5 ff1"><b>Diritti di accesso</b>: Chi può utilizzare l’API e per quali scopi.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Garanzie di funzionamento</b>: Standard minimi di performance e disponibilità.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Responsabilità</b>: Definizione di chi risponde in caso di malfunzionamenti, perdita di
 &nbsp;&nbsp;&nbsp;&nbsp;dati o attacchi informatici.</span></li>
</ul>

<div class="imTAJustify"><b><span class="fs12lh1-5 ff1">4.1. Le responsabilità in caso di vulnerabilità</span></b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Le
vulnerabilità delle API rappresentano un rischio significativo. Ad esempio, un
attacco informatico che sfrutti una falla in un’API potrebbe causare danni
rilevanti sia al sistema che all’utente finale. Le clausole contrattuali devono
quindi includere garanzie sulla sicurezza e un’allocazione chiara delle
responsabilità.</span></div>

<div class="imTAJustify"><b><span class="fs12lh1-5 ff1">5. Prospettive future e il ruolo del giurista</span></b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Con la
diffusione di modelli basati su <b>intelligenza artificiale</b>, <b>blockchain</b>
e <b>IoT</b>, l’uso delle API è destinato a crescere esponenzialmente,
generando nuove sfide normative. Tra le questioni emergenti si segnalano:</span></div>

<ul type="disc">
 <li><span class="fs12lh1-5 ff1">La regolamentazione delle API
 &nbsp;&nbsp;&nbsp;&nbsp;"open", utilizzate per creare ecosistemi condivisi;</span></li>
 <li><span class="fs12lh1-5 ff1">La definizione di standard globali per la
 &nbsp;&nbsp;&nbsp;&nbsp;sicurezza e la protezione dei dati;</span></li>
 <li><span class="fs12lh1-5 ff1">L’interazione tra le API e le norme
 &nbsp;&nbsp;&nbsp;&nbsp;sull’intelligenza artificiale, specie per quanto riguarda la trasparenza
 &nbsp;&nbsp;&nbsp;&nbsp;degli algoritmi.</span></li>
</ul>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Per il
giurista, comprendere il funzionamento delle API non è più una competenza
accessoria, ma una necessità per affrontare con competenza casi complessi e
fornire consulenza in materia di contratti tecnologici, privacy e
cybersecurity.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Le API
rappresentano un punto di incontro tra innovazione tecnologica e diritto,
aprendo nuove opportunità e sfide per il giurista. La loro regolamentazione
richiede un approccio multidisciplinare, capace di bilanciare esigenze di
sviluppo tecnologico, tutela della proprietà intellettuale e diritti
fondamentali degli utenti.</span></div>

<div class="imTAJustify"><b><span class="fs12lh1-5 ff1">Bibliografia
essenziale</span></b></div>

<ol start="1" type="1">
 <li><span class="fs12lh1-5 ff1">Regolamento (UE) 2016/679 (GDPR).</span></li>
 <li><span class="fs12lh1-5 ff1">Sentenza Google LLC v. Oracle America, Inc.,
 &nbsp;&nbsp;&nbsp;&nbsp;593 U.S. (2021).</span></li>
</ol>

<div class="imTAJustify"><span class="fs12lh1-5 ff1"> </span></div></div>]]></description>
			<pubDate>Mon, 30 Dec 2024 09:50:00 GMT</pubDate>
			<enclosure url="https://www.studiolegalemtdeluca.it/blog/files/34239780-3430-48dd-abf6-9110448fb9ea_thumb.jpg" length="276690" type="image/jpg" />
			<link>https://www.studiolegalemtdeluca.it/blog/?le-api-e-le-nuove-frontiere-del-diritto-tecnologico</link>
			<guid isPermaLink="false">https://www.studiolegalemtdeluca.it/blog/rss/000000057</guid>
		</item>
		<item>
			<title><![CDATA[EDPB: Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models]]></title>
			<author><![CDATA[Maria Teresa De Luca]]></author>
			<category domain="https://www.studiolegalemtdeluca.it/blog/index.php?category=Evidenza"><![CDATA[Evidenza]]></category>
			<category>imblog</category>
			<description><![CDATA[<div id="imBlogPost_000000056"><div><div><span class="fs12lh1-5 ff1"><span class="cf1">EDPB:
Opinion 28/2024 on certain data protection aspects related to the processing of
personal data in the context of AI models</span><br><span class="cf1">
</span><br><span class="cf1">
</span><span class="cf1">🔍</span><span class="cf1"> Protezione dei dati personali e intelligenza artificiale:
prospettive giuridiche nell’Opinione 28/2024 dell’EDPB </span><span class="cf1">🔍</span><br><span class="cf1">
Il Comitato Europeo per la Protezione dei Dati (EDPB) ha recentemente
pubblicato (18.12.2024) l’Opinione 28/2024, un documento di rilevante
importanza per il trattamento dei dati personali nell’ambito dello sviluppo e
dell’utilizzo di modelli di intelligenza artificiale (IA).</span><span class="cf1"> </span><br><span class="cf1">
Questo intervento rappresenta un punto di riferimento per affrontare le
complesse sfide giuridiche poste dall’innovazione tecnologica.</span><br><span class="cf1">
</span><span class="cf1">💡</span><span class="cf1"> Aspetti di maggiore interesse per i giuristi:</span><br><span class="cf1">
1️⃣ Anonimizzazione nei modelli IA: L’EDPB chiarisce che i modelli addestrati
con dati personali non possono essere considerati sempre anonimi.</span><span class="cf1"> </span><br><span class="cf1">
La valutazione deve essere effettuata caso per caso, considerando i rischi di
identificazione diretta o indiretta.</span><br><span class="cf1">
2️⃣ Legittimo interesse quale base giuridica: L’Opinione analizza il
bilanciamento richiesto tra gli interessi legittimi del titolare e i diritti
fondamentali degli interessati, soffermandosi sui criteri applicabili nella
fase di sviluppo e distribuzione dei modelli IA, inclusi i dati raccolti
tramite tecniche come il web scraping.</span><br><span class="cf1">
3️⃣ Conseguenze del trattamento illecito: Si esaminano le implicazioni
derivanti dall’eventuale utilizzo di dati trattati illecitamente nella fase di
sviluppo, con un’attenzione particolare alla necessità di accountability e alle
misure di mitigazione.</span><br><span class="cf1">
4️⃣ Indicazioni per le autorità di controllo: L’Opinione propone un framework
interpretativo utile per guidare le autorità nella valutazione della conformità
al GDPR e nell’analisi delle misure tecniche e organizzative adottate dai
titolari.</span><br><span class="cf1">
Questo documento, oltre a fornire preziose indicazioni operative, stimola una
riflessione sul ruolo del diritto come garante di un’innovazione tecnologica
responsabile e rispettosa dei diritti fondamentali.</span><span class="cf1">
</span><br><span class="cf1">
La complessità dei modelli IA richiede un approccio interdisciplinare, che
combini competenze giuridiche, tecnologiche ed etiche.</span><br><span class="cf1">
</span><!--[if !supportLineBreakNewLine]--><br><span class="cf1">
</span><!--[endif]--></span></div></div><div><span class="fs12lh1-5 ff1"><a href="https://www.studiolegalemtdeluca.it/files/edpb_opinion_202428_ai-models_en.pdf" class="imCssLink"><br></a></span></div><div><span class="fs12lh1-5 ff1"><a href="https://www.studiolegalemtdeluca.it/files/edpb_opinion_202428_ai-models_en.pdf" class="imCssLink">VISUALIZZA ALLEGATO</a></span></div></div>]]></description>
			<pubDate>Thu, 26 Dec 2024 17:54:00 GMT</pubDate>
			<enclosure url="https://www.studiolegalemtdeluca.it/blog/files/large-7111802_thumb.jpg" length="104721" type="image/jpg" />
			<link>https://www.studiolegalemtdeluca.it/blog/?edpb--opinion-28-2024-on-certain-data-protection-aspects-related-to-the-processing-of-personal-data-in-the-context-of-ai-models</link>
			<guid isPermaLink="false">https://www.studiolegalemtdeluca.it/blog/rss/000000056</guid>
		</item>
		<item>
			<title><![CDATA[ChatGPT, il Garante privacy chiude l’istruttoria]]></title>
			<author><![CDATA[Maria Teresa De Luca]]></author>
			<category domain="https://www.studiolegalemtdeluca.it/blog/index.php?category=Evidenza"><![CDATA[Evidenza]]></category>
			<category>imblog</category>
			<description><![CDATA[<div id="imBlogPost_000000055"><div>

</div><div><span class="fs12lh1-5 ff1"><b>ChatGPT, il Garante privacy chiude l</b><b>’</b><b>istruttoria.</b><br>
OpenAI dovrà realizzare una
campagna informativa di sei mesi e pagare una sanzione di 15 milioni di euro.<br>
Il Garante per la protezione dei dati
personali ha adottato di recente un provvedimento correttivo e sanzionatorio
nei confronti di OpenAI in merito alla gestione del servizio ChatGPT. La
decisione giunge a conclusione di un’istruttoria
avviata nel marzo 2023 e segue il parere pubblicato dall’EDPB che ha delineato un approccio comune per affrontare alcune delle
principali questioni relative al trattamento dei dati personali nell’ambito di servizi di intelligenza artificiale.<br>
Secondo il Garante, la società statunitense, responsabile della creazione e gestione del chatbot di
intelligenza artificiale generativa, ha commesso diverse violazioni. In
particolare:<br>
- Mancata notifica della violazione dei
dati subita a marzo 2023 all’Autorità.<br>
Trattamento dei dati personali degli
utenti per l’addestramento di ChatGPT
senza aver individuato un’adeguata base
giuridica.<br>
- Violazione del principio di
trasparenza, con carenze negli obblighi informativi nei confronti degli utenti.<br>
- Assenza di meccanismi di verifica dell’età, con conseguente rischio di
esposizione per i minori di 13 anni a contenuti inappropriati rispetto al loro
sviluppo e grado di autoconsapevolezza.<br>
Misure imposte a OpenAI<br>
Per garantire un’effettiva trasparenza nel trattamento dei dati personali, il Garante ha
imposto a OpenAI, utilizzando i nuovi poteri previsti dall’articolo 166, comma 7, del Codice Privacy, l’obbligo di realizzare una campagna di comunicazione istituzionale della
durata di 6 mesi. Tale campagna dovrà essere diffusa su
radio, televisione, giornali e Internet e concordata preventivamente con l’Autorità.<br>
Gli obiettivi principali della campagna
sono:<br>
Promuovere la comprensione e la
consapevolezza del pubblico riguardo al funzionamento di ChatGPT.<br>
Informare sulle modalità di raccolta dei dati personali di utenti e non-utenti, utilizzati per
addestrare l’intelligenza artificiale
generativa.<br>
Sensibilizzare sui diritti degli
interessati, come l’opposizione, la
rettifica e la cancellazione dei propri dati ai sensi del GDPR.<br>
Attraverso questa iniziativa, gli utenti
e non-utenti di ChatGPT saranno messi nelle condizioni di comprendere come
esercitare il diritto di opposizione all’utilizzo dei
propri dati personali per l’addestramento dell’intelligenza artificiale.<br>
La sanzione e il trasferimento del caso
all’Irlanda<br>
Il Garante ha inoltre comminato a OpenAI
una sanzione amministrativa di 15 milioni di euro, considerando anche l’atteggiamento collaborativo dimostrato dalla società nel corso dell’istruttoria.<br>
Infine, poiché OpenAI ha stabilito il proprio quartier generale europeo in Irlanda, il
Garante ha trasmesso gli atti alla Data Protection Commission (DPC) irlandese,
in ottemperanza alla regola del one stop shop prevista dal GDPR. </span></div><div><span class="fs12lh1-5 ff1"><br></span></div><div><span class="fs12lh1-5 ff1"><a href="https://www.studiolegalemtdeluca.it/files/GarantePrivacy-10085432-1.8.pdf" class="imCssLink">VISUALIZZA ALLEGATO</a></span></div><div>

</div>

<div><span class="fs12lh1-5 ff1"> </span></div></div>]]></description>
			<pubDate>Sat, 21 Dec 2024 08:37:00 GMT</pubDate>
			<enclosure url="https://www.studiolegalemtdeluca.it/blog/files/bn_thumb.jpg" length="54034" type="image/jpg" />
			<link>https://www.studiolegalemtdeluca.it/blog/?chatgpt,-il-garante-privacy-chiude-l-istruttoria</link>
			<guid isPermaLink="false">https://www.studiolegalemtdeluca.it/blog/rss/000000055</guid>
		</item>
		<item>
			<title><![CDATA[MODELLI IA: IL PARERE DELL'EDPB SULL'USO DEI DATI PERSONALI]]></title>
			<author><![CDATA[Maria Teresa De Luca]]></author>
			<category domain="https://www.studiolegalemtdeluca.it/blog/index.php?category=Pareri"><![CDATA[Pareri]]></category>
			<category>imblog</category>
			<description><![CDATA[<div id="imBlogPost_000000054"><div>

</div><div><span class="fs12lh1-5 ff1"><b>MODELLI IA: IL
PARERE DELL'EDPB SULL'USO DEI DATI PERSONALI</b><br>
L’EDPB (Comitato
europeo per la protezione dei dati) ha emesso il 17 dicembre u.s., un parere
relativo al trattamento dei dati personali ai fini dello sviluppo e dell’applicazione di modelli di intelligenza artificiale, nel rispetto delle
disposizioni del GDPR.<br>
Di
seguito sono riportati i principali temi trattati nel parere.<br>
1. Anonimizzazione dei modelli di IA<br>
Un modello è considerato
anonimo solo se è molto improbabile:<br>
- Identificare direttamente o
indirettamente gli individui dai dati utilizzati.<br>
- Estrarre dati personali tramite
interrogazioni (query).<br>
Le
DPA devono valutare caso per caso se un modello sia realmente anonimo.<br>
2. Interesse legittimo come base giuridica<br>
Principio chiave: Non esiste una
gerarchia tra le basi giuridiche del GDPR; spetta al titolare scegliere quella
appropriata.<br>
Per
usare l’interesse legittimo come base giuridica, va condotto un test in tre
fasi:<br>
Identificare
l’interesse legittimo:<br>
Deve
essere reale, preciso e non speculativo (es. sviluppo/distribuzione di un
modello IA).<br>
Necessità del trattamento:<br>
Verificare
che il trattamento sia necessario per l’interesse legittimo e che non esistano
alternative meno invasive.<br>
Prestare
attenzione a proporzionalità e minimizzazione dei dati.<br>
Test
di bilanciamento:<br>
Valutare
se gli interessi o i diritti fondamentali degli interessati prevalgono sull’interesse legittimo.<br>
Considerare:<br>
Natura
e contesto dei dati trattati.<br>
Ragionevoli
aspettative degli interessati rispetto al trattamento.<br>
Misure
di mitigazione che limitano l’impatto negativo (es. controlli su web scraping
o protezioni specifiche).<br>
3. Conseguenze del trattamento illecito<br>
Le DPA hanno discrezionalità nel valutare violazioni e adottare misure proporzionate.<br>
Sono
delineati tre scenari principali:<br>
Scenario
1: I dati personali sono conservati nel modello e riutilizzati dallo stesso
titolare:<br>
Va
valutata l’impatto della mancanza di base giuridica
iniziale sulle successive elaborazioni.<br>
Scenario
2: I dati personali sono elaborati da un altro titolare:<br>
Il
nuovo titolare deve verificare la conformità del modello, tenendo conto della fonte dei dati
e di eventuali accertamenti di violazioni precedenti.<br>
Scenario
3: I dati sono trattati illecitamente per lo sviluppo del modello, ma
successivamente anonimizzati:<br>
Se il
successivo uso del modello non comporta trattamento di dati personali, il GDPR
non si applica e l’illegittimità iniziale non influisce sul successivo
funzionamento.<br>
L’EDPB evidenzia i rischi specifici per i diritti fondamentali nelle fasi
di sviluppo e distribuzione dei modelli di IA.<br>
Le
misure di mitigazione sono cruciali per ridurre l’impatto negativo sui diritti degli interessati. </span></div><div><span class="fs12lh1-5 ff1"><a href="https://www.studiolegalemtdeluca.it/files/Parere-EDPB-17-dicembre-2024-n.-28.pdf" class="imCssLink"><br></a></span></div><div><span class="fs12lh1-5 ff1"><a href="https://www.studiolegalemtdeluca.it/files/Parere-EDPB-17-dicembre-2024-n.-28.pdf" class="imCssLink">VISUALIZZA ALLEGATO</a></span></div><div>

</div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1"> </span></div></div>]]></description>
			<pubDate>Fri, 20 Dec 2024 09:41:00 GMT</pubDate>
			<enclosure url="https://www.studiolegalemtdeluca.it/blog/files/download_thumb.jpg" length="3773" type="image/jpg" />
			<link>https://www.studiolegalemtdeluca.it/blog/?modelli-ia--il-parere-dell-edpb-sull-uso-dei-dati-personali</link>
			<guid isPermaLink="false">https://www.studiolegalemtdeluca.it/blog/rss/000000054</guid>
		</item>
		<item>
			<title><![CDATA[L'automation bias]]></title>
			<author><![CDATA[Maria Teresa De Luca]]></author>
			<category domain="https://www.studiolegalemtdeluca.it/blog/index.php?category=Evidenza"><![CDATA[Evidenza]]></category>
			<category>imblog</category>
			<description><![CDATA[<div id="imBlogPost_000000053"><div><span class="fs12lh1-5 ff1">L'<b>automation bias</b> (pregiudizio da
automazione) rappresenta una tendenza cognitiva sistematica, individuata in
studi di psicologia applicata e scienze comportamentali, che induce individui e
gruppi a sopravvalutare la correttezza e l'affidabilità dei sistemi
automatizzati o tecnologici, perfino in presenza di risultati chiaramente
erronei. Tale predisposizione deriva, in larga parte, dalla percezione
socioculturale delle tecnologie avanzate, come l'intelligenza artificiale (IA),
come strumenti intrinsecamente più obiettivi, efficienti e infallibili rispetto
al giudizio umano.</span></div>

<div><b><span class="fs12lh1-5 ff1">Fondamenti
Cognitivi dell'Automation Bias</span></b></div>

<ol start="1" type="1">
 <li><span class="fs12lh1-5 ff1"><b>Affidamento eccessivo sulla tecnologia (Over-reliance):</b> La fiducia sproporzionata nelle capacità delle macchine nasce da bias
 &nbsp;&nbsp;&nbsp;&nbsp;cognitivi preesistenti, quali l'effetto "autorita tecnologica" e
 &nbsp;&nbsp;&nbsp;&nbsp;il pregiudizio di superiorità algoritmica.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Diminuzione del controllo critico (Critical Oversight):</b> L'automazione incoraggia un atteggiamento passivo, che porta a
 &nbsp;&nbsp;&nbsp;&nbsp;trascurare l'importanza di verificare o validare criticamente i risultati
 &nbsp;&nbsp;&nbsp;&nbsp;generati dai sistemi automatizzati.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Esternalizzazione della responsabilità (Responsibility Delegation):</b> Il processo psicologico di delega riduce l'assunzione di
 &nbsp;&nbsp;&nbsp;&nbsp;responsabilità personale, provocando una diminuzione della vigilanza e
 &nbsp;&nbsp;&nbsp;&nbsp;della capacità di rilevazione degli errori.</span></li>
</ol>

<div><b><span class="fs12lh1-5 ff1">Manifestazioni
Pratiche dell'Automation Bias</span></b></div>

<ul type="disc">
 <li><span class="fs12lh1-5 ff1"><b>Ambito medico:</b> I
 &nbsp;&nbsp;&nbsp;&nbsp;software di supporto decisionale clinico vengono spesso accettati
 &nbsp;&nbsp;&nbsp;&nbsp;acriticamente dai professionisti sanitari, anche quando le evidenze
 &nbsp;&nbsp;&nbsp;&nbsp;sintomatiche o diagnostiche suggeriscono il contrario. Tale affidamento
 &nbsp;&nbsp;&nbsp;&nbsp;non verificato può compromettere l'accuratezza delle diagnosi, generando
 &nbsp;&nbsp;&nbsp;&nbsp;errori clinici evitabili.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Settore dell'aviazione:</b> Piloti
 &nbsp;&nbsp;&nbsp;&nbsp;esperti, pur addestrati all'intervento manuale in situazioni critiche,
 &nbsp;&nbsp;&nbsp;&nbsp;possono affidarsi ciecamente al pilota automatico, ignorando segnali di
 &nbsp;&nbsp;&nbsp;&nbsp;malfunzionamento o rischi impliciti, come documentato in diversi incidenti
 &nbsp;&nbsp;&nbsp;&nbsp;aerei.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Ambito legale e finanziario:</b>
 &nbsp;&nbsp;&nbsp;&nbsp;Professionisti del diritto o del settore bancario si affidano a software
 &nbsp;&nbsp;&nbsp;&nbsp;per calcolare parametri finanziari complessi o tassi d'interesse,
 &nbsp;&nbsp;&nbsp;&nbsp;tralasciando la necessaria revisione manuale, il che può portare a errori
 &nbsp;&nbsp;&nbsp;&nbsp;nei calcoli con rilevanza contrattuale o esecutiva.</span></li>
</ul>

<div><b><span class="fs12lh1-5 ff1">Conseguenze e
Rischi Sistemici</span></b></div>

<div><span class="fs12lh1-5 ff1">L'automation bias solleva questioni rilevanti in
termini di affidabilità e governance dei sistemi automatizzati, specialmente
nei contesti che richiedono precisione e accountability. I rischi includono:</span></div>

<ul type="disc">
 <li><span class="fs12lh1-5 ff1"><b>Erosione della vigilanza umana:</b> La
 &nbsp;&nbsp;&nbsp;&nbsp;diminuzione del controllo manuale aumenta la probabilità di errori
 &nbsp;&nbsp;&nbsp;&nbsp;sistematici non rilevati.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Perdita di autonomia decisionale:</b>
 &nbsp;&nbsp;&nbsp;&nbsp;L'eccessiva fiducia nell'automazione può ridurre la capacità umana di
 &nbsp;&nbsp;&nbsp;&nbsp;intervenire in situazioni impreviste o fuori standard.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Implicazioni legali e deontologiche:</b> Errori
 &nbsp;&nbsp;&nbsp;&nbsp;derivanti dall'automazione, non adeguatamente verificati, possono tradursi
 &nbsp;&nbsp;&nbsp;&nbsp;in responsabilità professionale, etica e finanziaria nei settori ad alta
 &nbsp;&nbsp;&nbsp;&nbsp;complessità come il diritto, la medicina e la finanza.</span></li>
</ul>

<div><b><span class="fs12lh1-5 ff1">Strategie di
Mitigazione Avanzate</span></b></div>

<ol start="1" type="1">
 <li><span class="fs12lh1-5 ff1"><b>Formazione critica e resilienza tecnologica:</b> Introdurre programmi formativi finalizzati a sviluppare la
 &nbsp;&nbsp;&nbsp;&nbsp;consapevolezza critica rispetto alle potenzialità e ai limiti
 &nbsp;&nbsp;&nbsp;&nbsp;dell'automazione. L'approccio deve includere l'analisi del rischio legato
 &nbsp;&nbsp;&nbsp;&nbsp;all'utilizzo dei sistemi intelligenti.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Sistemi di validazione incrociata:</b>
 &nbsp;&nbsp;&nbsp;&nbsp;Integrare processi di doppio controllo manuale e di verifica algoritmica
 &nbsp;&nbsp;&nbsp;&nbsp;per decisioni critiche, garantendo un approccio multilivello nella
 &nbsp;&nbsp;&nbsp;&nbsp;validazione delle soluzioni fornite dalle tecnologie.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Monitoraggio e auditing continuo:</b>
 &nbsp;&nbsp;&nbsp;&nbsp;Implementare audit periodici finalizzati alla valutazione della
 &nbsp;&nbsp;&nbsp;&nbsp;performance e della correttezza dei sistemi automatizzati, con particolare
 &nbsp;&nbsp;&nbsp;&nbsp;attenzione alle situazioni anomale e agli outlier.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Ribilanciamento uomo-macchina:</b>
 &nbsp;&nbsp;&nbsp;&nbsp;Promuovere l'integrazione equilibrata tra competenze umane e automazione
 &nbsp;&nbsp;&nbsp;&nbsp;tecnologica per preservare il ruolo centrale del giudizio umano nelle
 &nbsp;&nbsp;&nbsp;&nbsp;decisioni strategiche.</span></li>
</ol>

<div><b><span class="fs12lh1-5 ff1">Considerazioni
Finali</span></b></div>

<div><span class="fs12lh1-5 ff1">In ambiti altamente regolamentati, come quello
legale, sanitario e finanziario, il superamento dell'automation bias
rappresenta una priorità assoluta per garantire decisioni accurate e
responsabili. Sebbene l'automazione costituisca un'opportunità straordinaria
per migliorare l'efficienza operativa, essa non può sostituire la capacità
critica e adattiva dell'essere umano. Una corretta implementazione tecnologica
richiede un approccio olistico che combini rigore metodologico, vigilanza e
adattamento continuo alle complessità del contesto applicativo.</span></div>

<div><span class="fs12lh1-5 ff1"> </span></div></div>]]></description>
			<pubDate>Tue, 17 Dec 2024 16:47:00 GMT</pubDate>
			<enclosure url="https://www.studiolegalemtdeluca.it/blog/files/fe9d5b98-b9d8-4711-8ff3-072b96f67e8e_thumb.jpg" length="218070" type="image/jpg" />
			<link>https://www.studiolegalemtdeluca.it/blog/?l-automation-bias</link>
			<guid isPermaLink="false">https://www.studiolegalemtdeluca.it/blog/rss/000000053</guid>
		</item>
		<item>
			<title><![CDATA[La responsabilità del deployer nell'uso dell'Intelligenza Artificiale]]></title>
			<author><![CDATA[Maria Teresa De Luca]]></author>
			<category domain="https://www.studiolegalemtdeluca.it/blog/index.php?category=Evidenza"><![CDATA[Evidenza]]></category>
			<category>imblog</category>
			<description><![CDATA[<div id="imBlogPost_000000052"><div><b><span class="fs12lh1-5 ff1">La
responsabilità del deployer nell'uso dell'Intelligenza Artificiale</span></b></div>

<div><span class="fs12lh1-5 ff1">L’avvento dell’Intelligenza Artificiale (IA) ha
generato trasformazioni significative nei più svariati settori, introducendo
sfide complesse in termini di responsabilità giuridica e compliance normativa.
In questo contesto, emerge la figura del <b>deployer</b>, ossia l'utilizzatore
operativo dei sistemi di IA, il cui ruolo si distingue in maniera critica
rispetto a quello del <b>provider</b>, responsabile della progettazione e
commercializzazione della tecnologia.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Il <b>Regolamento
Europeo sull’Intelligenza Artificiale (AI Act)</b>, entrato in vigore il 1°
agosto 2024, introduce un sistema di regolamentazione basato sul rischio,
imponendo obblighi proporzionali alla gravità del rischio derivante dall’uso
dei sistemi IA. L’analisi dei requisiti applicabili ai deployer rispetto ai
provider evidenzia un quadro regolatorio complesso che richiede particolare
attenzione da parte di tutti gli attori coinvolti.</span></div>

<div><b><span class="fs12lh1-5 ff1">1. Il ruolo
del deployer: definizione e implicazioni</span></b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Il <b>deployer</b>
è colui che implementa e utilizza sistemi di IA in contesti operativi
specifici, svolgendo un ruolo decisivo nell'applicazione pratica della
tecnologia. Tale figura non coincide con il <b>provider</b>, responsabile della
progettazione e immissione sul mercato del sistema, ma è colui che introduce il
sistema IA nell'ambiente operativo, configurandolo e adattandolo secondo
finalità specifiche.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">L’AI Act
adotta un approccio basato sulla <b>classificazione del rischio</b> dei sistemi
di IA. I sistemi ritenuti ad alto rischio (ad esempio quelli utilizzati per il
reclutamento, la gestione dei crediti o l'assistenza sanitaria) impongono
requisiti stringenti sia per i provider che per i deployer.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">La corretta
qualificazione del ruolo è fondamentale. Un <b>deployer</b> che modifica un
sistema IA in modo <b>sostanziale</b> o ne cambia la finalità d’uso rischia di
essere riqualificato come <b>provider</b>, con conseguenti obblighi aggiuntivi
in termini di compliance e responsabilità.</span></div>

<div><b><span class="fs12lh1-5 ff1">2. La
responsabilità del deployer nell’AI Act</span></b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">L’AI Act
distingue chiaramente gli obblighi a carico dei <b>provider</b> e dei <b>deployer</b>,
delineando un sistema di responsabilità multilivello che assegna a ciascun
attore ruoli e doveri distinti:</span></div>

<div><b><span class="fs12lh1-5 ff1">Obblighi
specifici dei deployer:</span></b></div>

<ul type="disc">
 <li><span class="fs12lh1-5 ff1"><b>Conformità alle istruzioni d'uso</b>: I deployer sono obbligati a utilizzare i sistemi IA conformemente
 &nbsp;&nbsp;&nbsp;&nbsp;alle istruzioni fornite dal provider, monitorandone il funzionamento per
 &nbsp;&nbsp;&nbsp;&nbsp;individuare eventuali anomalie o bias.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Monitoraggio continuo</b>: Sistemi IA ad alto rischio richiedono una sorveglianza costante da
 &nbsp;&nbsp;&nbsp;&nbsp;parte di persone competenti e formate. Il mancato monitoraggio costituisce
 &nbsp;&nbsp;&nbsp;&nbsp;una grave violazione normativa.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Qualità dei dati di input</b>: I deployer devono assicurarsi che i dati forniti al sistema IA siano
 &nbsp;&nbsp;&nbsp;&nbsp;rappresentativi e adeguati rispetto alle finalità operative previste.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Valutazione dei diritti fondamentali</b>: Per determinate applicazioni ad alto rischio, come il credit scoring
 &nbsp;&nbsp;&nbsp;&nbsp;o il recruitment, i deployer sono tenuti a effettuare una <b>valutazione
 &nbsp;&nbsp;&nbsp;&nbsp;di impatto sui diritti fondamentali</b> degli individui coinvolti.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Documentazione e tracciabilità</b>:
 &nbsp;&nbsp;&nbsp;&nbsp;Conservazione dei log relativi all’utilizzo del sistema IA e adozione di
 &nbsp;&nbsp;&nbsp;&nbsp;procedure documentate atte a dimostrare la conformità normativa.</span></li>
</ul>

<div><b><span class="fs12lh1-5 ff1">Comparazione
con gli obblighi dei provider:</span></b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">A differenza
dei deployer, i <b>provider</b> devono garantire la <b>progettazione conforme</b>
dei sistemi IA, con particolare riferimento a:</span></div>

<ul type="disc">
 <li><span class="fs12lh1-5 ff1">La <b>gestione dei rischi</b> durante l’intero ciclo di vita del
 &nbsp;&nbsp;&nbsp;&nbsp;sistema;</span></li>
 <li><span class="fs12lh1-5 ff1">La <b>qualità dei dati</b> utilizzati per l'addestramento e
 &nbsp;&nbsp;&nbsp;&nbsp;validazione del modello;</span></li>
 <li><span class="fs12lh1-5 ff1">La redazione della <b>documentazione tecnica</b> atta a dimostrare la
 &nbsp;&nbsp;&nbsp;&nbsp;conformità;</span></li>
 <li><span class="fs12lh1-5 ff1">Sistemi di <b>registrazione automatica degli eventi (logging)</b>;</span></li>
 <li><span class="fs12lh1-5 ff1">Requisiti stringenti di <b>accuratezza, robustezza e cybersicurezza</b>.</span></li>
</ul>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Questa
distinzione comporta conseguenze significative: un deployer che si appropria di
responsabilità proprie del provider può incorrere in sanzioni più severe e
obblighi aggiuntivi.</span></div>

<div><b><span class="fs12lh1-5 ff1">3. I profili
di responsabilità civile ed extracontrattuale</span></b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">L’AI Act deve
essere interpretato in combinazione con la normativa già vigente in materia di <b>responsabilità
civile</b> e <b>extracontrattuale</b>, nonché alla luce delle nuove direttive
europee sui prodotti difettosi e sulla responsabilità nell’uso dell’IA:</span></div>

<ul type="disc">
 <li><span class="fs12lh1-5 ff1"><b>Responsabilità contrattuale</b> (art. 1218 c.c.): Il deployer risponde per danni derivanti
 &nbsp;&nbsp;&nbsp;&nbsp;dall’inadempimento degli obblighi previsti nel Regolamento o derivanti da
 &nbsp;&nbsp;&nbsp;&nbsp;accordi con il provider.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Responsabilità extracontrattuale</b> (art. 2043 c.c.): Il deployer è responsabile per danni causati a
 &nbsp;&nbsp;&nbsp;&nbsp;terzi in caso di negligenza, colpa o errata implementazione del sistema
 &nbsp;&nbsp;&nbsp;&nbsp;IA.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Danno da prodotti difettosi</b>: La direttiva UE 2024/2853 prevede che il deployer possa rispondere
 &nbsp;&nbsp;&nbsp;&nbsp;qualora abbia modificato sostanzialmente un sistema IA.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Presunzione di causalità</b>: La proposta di direttiva UE in materia di responsabilità
 &nbsp;&nbsp;&nbsp;&nbsp;extracontrattuale per sistemi IA introduce una <b>presunzione relativa</b>
 &nbsp;&nbsp;&nbsp;&nbsp;di responsabilità a carico di provider e deployer in caso di violazione
 &nbsp;&nbsp;&nbsp;&nbsp;degli obblighi normativi.</span></li>
</ul>

<div><b><span class="fs12lh1-5 ff1">4. Strumenti
di gestione del rischio per i deployer</span></b></div>

<div><span class="fs12lh1-5 ff1">La gestione del rischio costituisce una
prioritaria strategia di mitigazione della responsabilità per i deployer. Le
seguenti misure sono raccomandate:</span></div>

<ol start="1" type="1">
 <li><span class="fs12lh1-5 ff1"><b>Implementazione di sistemi di compliance</b>: Monitoraggio continuo e adozione di procedure interne per garantire
 &nbsp;&nbsp;&nbsp;&nbsp;la conformità ai requisiti dell’AI Act.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Valutazione e mitigazione dei rischi</b>: Analisi preliminare dei rischi e adozione di contromisure adeguate.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Audit e formazione</b>: Programmi di formazione continua per il personale e audit periodici
 &nbsp;&nbsp;&nbsp;&nbsp;per verificare l’idoneità dei sistemi IA.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Collaborazione con provider</b>: Garantire un dialogo costante con i provider per ricevere supporto
 &nbsp;&nbsp;&nbsp;&nbsp;tecnico e istruzioni d’uso aggiornate.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Trasparenza e accountability</b>: Adottare misure di informativa chiara nei confronti degli utenti
 &nbsp;&nbsp;&nbsp;&nbsp;finali.</span></li>
</ol>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Possiamo
concludere dicendo che la figura del <b>deployer</b> svolge un ruolo centrale
nell’ecosistema dell’IA, con responsabilità proporzionate all’uso specifico dei
sistemi implementati. L’AI Act impone obblighi chiari che richiedono un
approccio proattivo, fondato su una gestione oculata del rischio, monitoraggio
costante e conformità normativa rigorosa.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">La complessità
della normativa implica una stretta interrelazione tra il deployer e il
provider, con un’attenzione particolare alla <b>qualifica del ruolo</b> e alla <b>distinzione
delle responsabilità</b>. In un quadro giuridico in continua evoluzione, la
capacità di interpretare correttamente tali obblighi rappresenta un elemento
determinante per un utilizzo sicuro e conforme dell’Intelligenza Artificiale.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">La prospettiva
accademica invita a ulteriori studi interdisciplinari che combinino conoscenze
giuridiche, tecniche ed etiche per sviluppare best practice in grado di
conciliare innovazione tecnologica e tutela dei diritti fondamentali.</span></div>

<div><span class="fs12lh1-5 ff1"> </span></div></div>]]></description>
			<pubDate>Tue, 17 Dec 2024 16:44:00 GMT</pubDate>
			<enclosure url="https://www.studiolegalemtdeluca.it/blog/files/DALLE-2024-12-17-12.50.22---A-professional-and-modern-illustration-with-a-green-background-representing-the-responsibilities-of-AI-deployers-under-the-AI-Act.-_thumb.jpg" length="340912" type="image/jpg" />
			<link>https://www.studiolegalemtdeluca.it/blog/?la-responsabilita-del-deployer-nell-uso-dell-intelligenza-artificiale</link>
			<guid isPermaLink="false">https://www.studiolegalemtdeluca.it/blog/rss/000000052</guid>
		</item>
		<item>
			<title><![CDATA[Il Prompt espresso]]></title>
			<author><![CDATA[Maria Teresa De Luca]]></author>
			<category domain="https://www.studiolegalemtdeluca.it/blog/index.php?category=Evidenza"><![CDATA[Evidenza]]></category>
			<category>imblog</category>
			<description><![CDATA[<div id="imBlogPost_000000051"><div class="imTAJustify"><span class="fs12lh1-5 ff1">Il <b>Prompt espresso</b>
rappresenta una formulazione avanzata e ottimizzata di input testuale destinata
a modelli linguistici, finalizzata a ottenere risposte altamente specifiche,
precise e strutturate in tempi rapidi. Questa metodologia si configura come una
risorsa essenziale nell'interazione con l'intelligenza artificiale, poiché
permette di minimizzare ambiguità interpretative e ottimizzare la qualità delle
risposte attraverso un processo comunicativo accuratamente delineato. La
riduzione del rumore informativo e la focalizzazione su elementi chiave sono
funzionali a soddisfare richieste complesse e articolate in contesti di alta
specializzazione.</span></div>

<div><b><span class="fs12lh1-5 ff1">Obiettivi del prompt
espresso</span></b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">L'elemento
cardine del prompt espresso risiede nella sua capacità di <b>massimizzare
l'efficacia comunicativa</b> e <b>ridurre le ambiguità semantiche</b>,
garantendo l'ottenimento di risposte con un elevato grado di aderenza alle
aspettative dell'utente. </span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Tale approccio
assume rilevanza nei casi in cui l'oggetto dell'interrogazione sia di natura
specialistica o complessa, esigendo un livello di risposta analitico,
strutturato e coerente. </span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">L'efficacia
del prompt espresso deriva dalla combinazione di formulazioni linguistiche
puntuali, indicazioni contestuali e obiettivi chiari.</span></div>

<div><b><span class="fs12lh1-5 ff1">Caratteristiche
essenziali di un "prompt espresso"</span></b></div>

<ol start="1" type="1">
 <li><span class="fs12lh1-5 ff1"><b>Accuratezza semantica</b>: Il Prompt Espresso richiede un uso mirato e ponderato delle parole
 &nbsp;&nbsp;&nbsp;&nbsp;chiave, che devono riflettere il perimetro concettuale e tematico della richiesta.
 &nbsp;&nbsp;&nbsp;&nbsp;La precisione terminologica è cruciale per escludere risposte generiche o
 &nbsp;&nbsp;&nbsp;&nbsp;non pertinenti.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Sintesi ed essenzialità</b>: L’eliminazione di ridondanze linguistiche favorisce la
 &nbsp;&nbsp;&nbsp;&nbsp;concentrazione del modello sugli elementi determinanti della richiesta.
 &nbsp;&nbsp;&nbsp;&nbsp;L'impiego di frasi brevi e focalizzate facilita una risposta rapida e
 &nbsp;&nbsp;&nbsp;&nbsp;focalizzata.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Esplicitazione degli obiettivi</b>: Definire in modo inequivocabile l’output atteso è imprescindibile.
 &nbsp;&nbsp;&nbsp;&nbsp;Una chiara specificazione della forma della risposta (es. punti elenco,
 &nbsp;&nbsp;&nbsp;&nbsp;trattazione analitica o sintesi) consente di delimitare il perimetro
 &nbsp;&nbsp;&nbsp;&nbsp;interpretativo del modello.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Supporto contestuale</b>: Inserire contesti di riferimento è indispensabile per ottenere
 &nbsp;&nbsp;&nbsp;&nbsp;risposte calate nella realtà applicativa richiesta. Specificare dettagli
 &nbsp;&nbsp;&nbsp;&nbsp;quali l’ambito disciplinare, il quadro normativo di riferimento o il
 &nbsp;&nbsp;&nbsp;&nbsp;target destinatario accresce la precisione del risultato.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Esempi applicativi</b>: Fornire
 &nbsp;&nbsp;&nbsp;&nbsp;esempi concreti e mirati può rappresentare una guida operativa per
 &nbsp;&nbsp;&nbsp;&nbsp;indirizzare il modello verso un tipo di risposta specificamente atteso.</span></li>
</ol>

<div><b><span class="fs12lh1-5 ff1">Esempi
comparativi</span></b></div>

<ol start="1" type="1">
 <li><span class="fs12lh1-5 ff1"><b>Prompt inefficace</b>:
 &nbsp;&nbsp;&nbsp;&nbsp;"Descrivi il diritto bancario." </span></li>
 <ul type="circle">
 &nbsp;<li><span class="fs12lh1-5 ff1">La natura generica di questo
 &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;input rischia di produrre una risposta dispersiva e priva di focus
 &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;specifico.</span></li>
 </ul>
 <li><span class="fs12lh1-5 ff1"><b>Prompt espresso</b>: "Analizza il concetto di anatocismo nel diritto bancario
 &nbsp;&nbsp;&nbsp;&nbsp;italiano, delineando le principali disposizioni del Codice Civile in
 &nbsp;&nbsp;&nbsp;&nbsp;materia e illustrando le interpretazioni giurisprudenziali più
 &nbsp;&nbsp;&nbsp;&nbsp;rilevanti." </span></li>
 <ul type="circle">
 &nbsp;<li><span class="fs12lh1-5 ff1">Questo input è strutturato,
 &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;preciso e orientato a ottenere una risposta coerente, analitica e
 &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;focalizzata sulle aspettative dell’utente.</span></li>
 </ul>
</ol>

<div><b><span class="fs12lh1-5 ff1">Struttura
logica e applicabilità del prompt espresso</span></b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">L’efficacia
del Prompt Espresso si fonda su una struttura logica articolata, dove ogni
elemento della richiesta è funzionale al raggiungimento di un obiettivo
specifico:</span></div>

<ul type="disc">
 <li><span class="fs12lh1-5 ff1"><b>Tema principale</b>:
 &nbsp;&nbsp;&nbsp;&nbsp;Individuazione dell'argomento o del focus centrale.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Ambito e contesto</b>:
 &nbsp;&nbsp;&nbsp;&nbsp;Specificazione del contesto applicativo o disciplinare.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Obiettivo della risposta</b>: Definizione chiara dell'output richiesto (analisi, sintesi, elenco,
 &nbsp;&nbsp;&nbsp;&nbsp;ecc.).</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Quadro di riferimento</b>:
 &nbsp;&nbsp;&nbsp;&nbsp;Eventuali fonti, teorie o normative rilevanti.</span></li>
</ul>

<div><b><span class="fs12lh1-5 ff1">Vantaggi
dell'impiego del prompt espresso</span></b></div>

<div><span class="fs12lh1-5 ff1">L'utilizzo del Prompt Espresso offre
significativi vantaggi nelle seguenti aree applicative:</span></div>

<ol start="1" type="1">
 <li><span class="fs12lh1-5 ff1"><b>Ricerca accademica</b>: Supporto alla produzione di contenuti analitici e critici,
 &nbsp;&nbsp;&nbsp;&nbsp;facilitando l'elaborazione di risposte mirate in ambito specialistico.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Professione legale e tecnica</b>: Redazione di testi normativi, pareri tecnici e sintesi
 &nbsp;&nbsp;&nbsp;&nbsp;giurisprudenziali con un alto livello di precisione e rilevanza.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Contenuti digitali</b>: Creazione di articoli e testi focalizzati, capaci di rispondere a
 &nbsp;&nbsp;&nbsp;&nbsp;obiettivi comunicativi specifici.</span></li>
 <li><span class="fs12lh1-5 ff1"><b>Didattica avanzata</b>: Produzione di materiali didattici chiari e ben strutturati a
 &nbsp;&nbsp;&nbsp;&nbsp;supporto di percorsi formativi specialistici.</span></li>
</ol>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">In sintesi, il
<b>prompt espresso</b> è uno strumento imprescindibile per ottimizzare
l'interazione con modelli linguistici avanzati, assicurando l'ottenimento di
risposte contestualizzate, analitiche e puntuali. Il suo impiego è
particolarmente indicato per contesti ad alta specializzazione, dove la
chiarezza e l'accuratezza sono requisiti essenziali per la validità e l'utilità
della risposta.</span></div>

<div><span class="fs12lh1-5 ff1"> </span></div></div>]]></description>
			<pubDate>Tue, 17 Dec 2024 16:39:00 GMT</pubDate>
			<enclosure url="https://www.studiolegalemtdeluca.it/blog/files/DALLE-2024-12-17-10.53.30---An-artistic-representation-of-a--Prompt-Espresso--concept-featuring-a-stylized-espresso-cup-with-a-digital-or-AI-theme.-The-cup-cou_thumb.jpg" length="270357" type="image/jpg" />
			<link>https://www.studiolegalemtdeluca.it/blog/?il-prompt-espresso</link>
			<guid isPermaLink="false">https://www.studiolegalemtdeluca.it/blog/rss/000000051</guid>
		</item>
		<item>
			<title><![CDATA[Il Mistero della Black Box nell'Intelligenza Artificiale]]></title>
			<author><![CDATA[Maria Teresa De Luca]]></author>
			<category domain="https://www.studiolegalemtdeluca.it/blog/index.php?category=Evidenza"><![CDATA[Evidenza]]></category>
			<category>imblog</category>
			<description><![CDATA[<div id="imBlogPost_000000050"><div><div>Il Mistero della Black Box <span class="fs12lh1-5">nell'Intelligenza Artificiale</span></div></div><div><span class="fs12lh1-5"><br></span></div><div><span class="fs12lh1-5 ff1">Esploreremo il concetto di "black box" nell'AI, le sue implicazioni etiche e</span></div><div><span class="fs12lh1-5 ff1">tecniche, e come influenza il nostro rapporto con la tecnologia moderna.</span></div><div><span class="fs12lh1-5 ff1">Questo viaggio ci porterà a comprendere meglio le sfide e le opportunità</span></div><div><span class="fs12lh1-5 ff1">dell'AI opaca.</span></div><div><span class="fs12lh1-5 ff1">da maria teresa de luca</span></div><div><span class="fs12lh1-5 ff1"><a href="https://www.studiolegalemtdeluca.it/files/Il-Mistero-della-Black-Box-nellIntelligenza-Artificiale.pdf" class="imCssLink"><br></a></span></div><div><span class="fs12lh1-5 ff1"><a href="https://www.studiolegalemtdeluca.it/files/Il-Mistero-della-Black-Box-nellIntelligenza-Artificiale.pdf" class="imCssLink">VISUALIZZA ALLEGATO</a></span></div></div>]]></description>
			<pubDate>Mon, 09 Dec 2024 08:36:00 GMT</pubDate>
			<enclosure url="https://www.studiolegalemtdeluca.it/blog/files/Pagine-da-Il-Mistero-della-Black-Box-nellIntelligenza-Artificiale_thumb.jpg" length="193686" type="image/jpg" />
			<link>https://www.studiolegalemtdeluca.it/blog/?il-mistero-della-black-box-nell-intelligenza-artificiale</link>
			<guid isPermaLink="false">https://www.studiolegalemtdeluca.it/blog/rss/000000050</guid>
		</item>
		<item>
			<title><![CDATA[Il Kill Switch nell'Intelligenza Artificiale: Sicurezza e Controllo]]></title>
			<author><![CDATA[Maria Teresa De Luca]]></author>
			<category domain="https://www.studiolegalemtdeluca.it/blog/index.php?category=Evidenza"><![CDATA[Evidenza]]></category>
			<category>imblog</category>
			<description><![CDATA[<div id="imBlogPost_00000004E"><div><span class="fs12lh1-5 ff1">Il Kill Switch nell'Intelligenza </span><span class="fs12lh1-5 ff1">Artificiale: Sicurezza e </span><span class="fs12lh1-5 ff1">Controllo</span></div><div><span class="fs12lh1-5 ff1"><br></span></div><div><span class="fs12lh1-5 ff1">Esploreremo il concetto di "kill switch" nell'intelligenza artificiale, un</span></div><div><span class="fs12lh1-5 ff1">meccanismo cruciale per garantire sicurezza e controllo. Analizzeremo le sue</span></div><div><span class="fs12lh1-5 ff1">implicazioni etiche, tecniche e sociali.</span></div><div><span class="fs12lh1-5 ff1">da maria teresa de luca</span></div><div><span class="fs12lh1-5 ff1"><br></span></div><div><span class="fs12lh1-5 ff1"><a href="https://www.studiolegalemtdeluca.it/files/Il-Kill-Switch-nellIntelligenza-Artificiale-Sicurezza-e-Controllo.pdf" class="imCssLink">VISUALIZZA ALLEGATO</a></span></div></div>]]></description>
			<pubDate>Mon, 09 Dec 2024 08:31:00 GMT</pubDate>
			<enclosure url="https://www.studiolegalemtdeluca.it/blog/files/Pagine-da-Il-Kill-Switch-nellIntelligenza-Artificiale-Sicurezza-e-Controllo_thumb.jpg" length="250206" type="image/jpg" />
			<link>https://www.studiolegalemtdeluca.it/blog/?il-kill-switch-nell-intelligenza</link>
			<guid isPermaLink="false">https://www.studiolegalemtdeluca.it/blog/rss/00000004E</guid>
		</item>
		<item>
			<title><![CDATA[Le White Box AI: Una Nuova Frontiera per il Diritto]]></title>
			<author><![CDATA[Maria Teresa De Luca]]></author>
			<category domain="https://www.studiolegalemtdeluca.it/blog/index.php?category=Evidenza"><![CDATA[Evidenza]]></category>
			<category>imblog</category>
			<description><![CDATA[<div id="imBlogPost_00000004D"><div><b class="fs12lh1-5 ff1">Le White Box AI: Una Nuova Frontiera per il Diritto</b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Il
progresso tecnologico dell'intelligenza artificiale (IA) sta trasformando
radicalmente il panorama giuridico, ponendo sfide che richiedono un'attenta
riflessione da parte degli studiosi del diritto. Una delle innovazioni più
rilevanti e discusse è rappresentata dalle "White Box AI", sistemi di
IA progettati con l'obiettivo di garantire una trasparenza operativa senza
precedenti, consentendo agli utenti di comprendere, analizzare e verificare i
processi decisionali alla base degli output generati. Questi modelli si pongono
in contrasto con le più diffuse "Black Box AI", caratterizzate da
complessità e opacità che rendono il loro funzionamento difficilmente
interpretabile. In questo articolo, esploreremo le implicazioni giuridiche
delle White Box AI, valutando come esse possano influenzare i principi della
trasparenza, della responsabilità e dell'equo processo, con particolare
attenzione al ruolo del diritto nel regolamentare l'adozione di tali tecnologie.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">L'evoluzione
dell'IA, soprattutto nei sistemi di machine learning, ha contribuito a rendere
le decisioni automatizzate sempre più sofisticate, ma anche più difficili da
comprendere. Le Black Box AI sono spesso criticate per la loro natura criptica
e per la difficoltà, anche per gli esperti, di decifrare il ragionamento
sottostante a una determinata decisione. Tale opacità non solo erode la fiducia
degli utenti, ma solleva preoccupazioni etiche e giuridiche quando le decisioni
influiscono direttamente sulla vita delle persone, come nella concessione di
prestiti, nell'accesso a servizi sanitari o nelle sentenze penali. Di contro,
le White Box AI rappresentano una soluzione potenzialmente rivoluzionaria per
affrontare le sfide della trasparenza e della responsabilità, favorendo
l'adozione etica e sicura di sistemi decisionali automatizzati.</span></div>

<div><b class="fs12lh1-5 ff1">White Box AI: Definizione e Differenze rispetto alle
Black Box AI</b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Le
White Box AI sono sistemi di intelligenza artificiale che operano con algoritmi
espliciti e comprensibili, che consentono a tecnici, utenti e terze parti di
verificare in che modo i dati vengono elaborati per generare i risultati.
Diversamente dalle Black Box AI, che spesso sfruttano reti neurali profonde
caratterizzate da una complessità intrinseca e non lineare, le White Box AI si
basano su modelli matematici trasparenti, facilmente interpretabili e
documentabili. La possibilità di rendere esplicite le logiche che guidano il
processo decisionale consente non solo una maggiore fiducia nelle decisioni
adottate, ma anche un controllo efficace sulle eventuali fonti di errore.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Questa
capacità di spiegare ogni fase del processo decisionale è particolarmente
preziosa in contesti giuridici, dove la giustificabilità e la trasparenza delle
decisioni sono requisiti fondamentali per la tutela dei diritti costituzionali
e processuali. La disponibilità di una documentazione chiara sui meccanismi che
portano a una decisione è un elemento chiave per garantire che le decisioni
automatizzate siano soggette a scrutinio giuridico, favorendo un miglioramento
della fiducia del pubblico nei sistemi automatizzati.</span></div>

<div><b class="fs12lh1-5 ff1">La Trasparenza come Garanzia dei Diritti Fondamentali</b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">La
trasparenza è un principio centrale in numerosi ambiti giuridici, soprattutto
nei procedimenti amministrativi e giudiziari. In un contesto in cui le
decisioni automatizzate stanno diventando sempre più comuni, è fondamentale che
i sistemi di IA siano progettati in modo da rendere le loro operazioni
comprensibili. Le White Box AI rispondono a questa esigenza garantendo che ogni
passo del processo decisionale possa essere ricostruito e analizzato. Tale
caratteristica è essenziale non solo per prevenire abusi e discriminazioni, ma
anche per garantire un controllo adeguato da parte delle autorità e degli
individui coinvolti.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Nel
diritto amministrativo, la trasparenza delle White Box AI consente di
rispettare i principi di buon andamento e imparzialità della pubblica
amministrazione, garantendo che le decisioni siano motivate in maniera adeguata
e verificabile. Analogamente, nel diritto penale, l'utilizzo di sistemi
trasparenti permette di evitare situazioni di potenziale arbitrarietà e
discriminazione, offrendo alle parti la possibilità di verificare la
correttezza delle decisioni e di contestarle laddove necessario. L'assenza di
trasparenza delle Black Box AI, al contrario, rischia di minare la fiducia del
pubblico nel sistema giudiziario e di compromettere il rispetto dei diritti
fondamentali degli individui.</span></div>

<div><b class="fs12lh1-5 ff1">Responsabilità e Accountability nel Contesto delle White
Box AI</b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">La
questione della responsabilità rappresenta uno degli aspetti più complessi
dell'utilizzo delle tecnologie IA. Se un sistema di IA prende una decisione
errata che provoca un danno, chi ne risponde? Nelle Black Box AI, l'opacità del
processo decisionale rende difficile attribuire la responsabilità in modo
chiaro e preciso. Al contrario, le White Box AI, grazie alla loro trasparenza,
offrono una base più solida per identificare le cause di un errore e per
attribuire la responsabilità in maniera accurata e giusta.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Nel
diritto della responsabilità civile, la capacità di ricostruire ogni fase del
processo decisionale è cruciale per determinare se un danno sia stato causato
da un errore di programmazione, da un problema nei dati di input o da un uso
improprio del sistema. Questo tipo di tracciabilità è altrettanto importante
nel diritto penale, dove è necessario valutare se la condotta di chi ha
sviluppato o utilizzato il sistema sia stata negligente o dolosa.
L'accountability, quindi, non riguarda solo l'identificazione del responsabile
finale, ma implica anche l'adozione di misure che assicurino la qualità e la
sicurezza del sistema, riducendo al minimo i rischi di errori.</span></div>

<div><b class="fs12lh1-5 ff1">L'Equo Processo e il Ruolo delle White Box AI nelle
Decisioni Automatizzate</b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Il
principio dell'equo processo, sancito dall'articolo 6 della Convenzione Europea
dei Diritti dell'Uomo, richiede che ogni individuo abbia diritto a un processo
equo e trasparente. L'utilizzo di Black Box AI nelle decisioni automatizzate
può rappresentare una minaccia a questo diritto, poiché l'impossibilità di
comprendere appieno le ragioni di una decisione rende difficile contestarla in
modo efficace. Le White Box AI, al contrario, garantiscono un maggiore rispetto
dei diritti delle parti, fornendo informazioni dettagliate sui criteri e sui
dati utilizzati per giungere a una determinata conclusione.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Nel
contesto dei procedimenti giudiziari, l'utilizzo di White Box AI offre un
vantaggio significativo in termini di trasparenza e verificabilità. La
possibilità di accedere alle informazioni sui processi decisionali consente
alle parti di preparare una difesa adeguata e di contestare eventuali errori o
bias che potrebbero aver influenzato la decisione automatizzata. Questo aspetto
è cruciale non solo per garantire il rispetto dei diritti individuali, ma anche
per preservare l'integrità e la credibilità del sistema giudiziario nel suo
complesso.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Le
White Box AI rappresentano un'importante opportunità per affrontare alcune
delle principali sfide poste dall'intelligenza artificiale, in particolare in
termini di trasparenza, responsabilità e equità. La loro capacità di rendere
espliciti e comprensibili i processi decisionali offre un livello di garanzia
che le Black Box AI non possono fornire, soprattutto in contesti giuridici e
amministrativi dove la tutela dei diritti fondamentali è essenziale. Tuttavia,
per sfruttare appieno il potenziale delle White Box AI, è necessario un
intervento normativo chiaro e mirato, volto a stabilire standard e linee guida
che definiscano le modalità di utilizzo e le garanzie necessarie per evitare
abusi.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Il
ruolo dei giuristi è fondamentale in questo processo. È necessario un approccio
multidisciplinare che coinvolga non solo esperti di diritto, ma anche tecnologi
ed eticisti, al fine di sviluppare un quadro giuridico che possa governare
efficacemente l'uso delle White Box AI. Solo attraverso una regolamentazione
adeguata e la promozione di standard internazionali condivisi sarà possibile
garantire che l'adozione delle tecnologie di IA avvenga in modo equo,
trasparente e rispettoso dei diritti individuali. La sfida non è soltanto
quella di sviluppare sistemi tecnologicamente avanzati, ma anche di assicurarci
che questi sistemi siano allineati ai valori e ai principi fondamentali delle
nostre società democratiche.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">È
quindi essenziale continuare a promuovere la ricerca su tecnologie IA che siano
etiche e trasparenti, nonché a sviluppare meccanismi di verifica e
certificazione che possano garantire la conformità dei sistemi AI alle
normative vigenti. Solo un approccio integrato, che combini progresso
tecnologico e attenzione ai diritti umani, potrà consentire di sfruttare il
potenziale delle White Box AI per migliorare il benessere collettivo,
assicurando al contempo il rispetto dei diritti e delle garanzie giuridiche.</span></div>

<div><span class="fs12lh1-5 ff1"> </span></div>

<div><span class="fs12lh1-5 ff1"> </span></div></div>]]></description>
			<pubDate>Thu, 05 Dec 2024 08:21:00 GMT</pubDate>
			<enclosure url="https://www.studiolegalemtdeluca.it/blog/files/white-box-ai_thumb.jpg" length="251293" type="image/jpg" />
			<link>https://www.studiolegalemtdeluca.it/blog/?le-white-box-ai--una-nuova-frontiera-per-il-diritto</link>
			<guid isPermaLink="false">https://www.studiolegalemtdeluca.it/blog/rss/00000004D</guid>
		</item>
		<item>
			<title><![CDATA[Le Black Box nell'Intelligenza Artificiale: Riflessioni Giuridiche e Sfide Normative]]></title>
			<author><![CDATA[Maria Teresa De Luca]]></author>
			<category domain="https://www.studiolegalemtdeluca.it/blog/index.php?category=Evidenza"><![CDATA[Evidenza]]></category>
			<category>imblog</category>
			<description><![CDATA[<div id="imBlogPost_00000004C"><div><b class="fs12lh1-5 ff1">Le Black Box nell'Intelligenza Artificiale: Riflessioni
Giuridiche e Sfide Normative</b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">L'introduzione
dell'Intelligenza Artificiale (IA) ha trasformato profondamente numerosi
settori, incluso quello giuridico, sollevando nuove e complesse sfide in materia
di responsabilità e regolamentazione. Tra i problemi più intricati emergono le
cosiddette "black box", ovvero quei modelli di IA caratterizzati da
un funzionamento opaco, spesso impenetrabile anche per gli esperti. Questo
articolo intende esaminare le implicazioni giuridiche delle black box,
focalizzandosi sui concetti di responsabilità, trasparenza e sulle sfide
normative emergenti.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">La
crescente pervasività della tecnologia IA non si limita all'automazione dei
processi, ma incide significativamente anche sulla modalità con cui le
decisioni vengono prese. </span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Molti
degli algoritmi basati su IA attualmente in uso operano come "scatole
nere", il cui meccanismo interno è scarsamente comprensibile, persino a
coloro che li progettano. </span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Questa
mancanza di trasparenza crea problematiche sostanziali sul piano giuridico,
poiché mina i diritti fondamentali degli individui. I giuristi si trovano di
fronte a problematiche complesse che investono il campo dell'etica, della
giustizia e della protezione dei diritti umani. Le decisioni automatizzate
prese dalle black box hanno un impatto significativo sulla vita delle persone,
rendendo necessario un dibattito approfondito su come assicurare un controllo
efficace e una supervisione adeguata.</span></div>

<div><b class="fs12lh1-5 ff1">Il Problema della Trasparenza</b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">La
trasparenza rappresenta uno dei nodi più critici delle black box, poiché, per
loro stessa natura, tali sistemi non permettono di comprendere appieno il
processo decisionale che ne sta alla base. Questo diventa particolarmente
problematico nei contesti giuridici, in cui l'IA è utilizzata per prendere
decisioni di grande impatto, come la valutazione del rischio di credito, la
stima della probabilità di recidiva, o l'assistenza nella valutazione delle
prove giudiziarie. L'opacità del processo decisionale rende arduo il compito di
chi subisce tali decisioni di contestarle efficacemente, limitando il diritto
alla difesa e violando il principio di non discriminazione.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Nel
contesto giuridico, l'opacità delle black box compromette la capacità di
valutare la legittimità e l'accuratezza delle decisioni prodotte dall'IA. In
questo senso, la trasparenza diventa un principio fondamentale per bilanciare
l'uso dell'IA con il rispetto dei diritti fondamentali. La sfida per i giuristi
è quella di creare un quadro normativo che garantisca che i sistemi di IA
possano fornire spiegazioni chiare e verificabili. Tale trasparenza deve essere
applicabile non solo al funzionamento degli algoritmi, ma anche ai dati
utilizzati per addestrarli.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Un
ulteriore aspetto del problema della trasparenza riguarda infatti
l'accessibilità e la qualità dei dati impiegati per addestrare gli algoritmi.
L'IA apprende dai dati, e la loro qualità influisce direttamente
sull'imparzialità delle decisioni prese. L'uso di dati distorti o
discriminatori potrebbe portare a risultati pregiudizievoli, penalizzando
determinati gruppi sociali. Pertanto, i giuristi devono promuovere l'adozione
di standard di qualità per i dati utilizzati dagli algoritmi e garantire la
trasparenza in ogni fase del processo.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Va
inoltre considerato il concetto di spiegabilità degli algoritmi, vale a dire la
capacità di generare spiegazioni che possano essere comprese da tutti gli
attori coinvolti, inclusi utenti finali, operatori giuridici e autorità di
regolamentazione. La natura complessa degli algoritmi richiede regolamentazioni
che impongano ai produttori di IA di fornire strumenti idonei a rendere i
processi decisionali interpretabili e verificabili da parte di soggetti terzi.</span></div>

<div><b class="fs12lh1-5 ff1">Responsabilità e Accountability</b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Il
tema della responsabilità è intrinsecamente legato all'uso delle black box,
poiché la loro opacità rende difficile attribuire responsabilità in caso di
errore o di decisione iniqua. La direttiva europea sulla responsabilità per
danno da prodotti difettosi, pensata in un'epoca in cui i prodotti erano
tangibili e chiaramente identificabili, risulta inadeguata quando applicata ai
sistemi di IA che operano come black box. Questo scenario impone una
rivisitazione dei concetti tradizionali di responsabilità e l'elaborazione di
nuovi paradigmi capaci di rispondere alle specificità di questi sistemi.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Alcuni
giuristi suggeriscono l'introduzione di un regime di responsabilità oggettiva
per i danni causati dall'IA, che potrebbe rappresentare una tutela più efficace
per gli utenti, indipendentemente dall'individuazione di una colpa. Tuttavia,
questo tipo di responsabilità deve essere bilanciato con l'esigenza di non
soffocare l'innovazione tecnologica, ponendo eccessivi oneri sui produttori di
IA. Un approccio pragmatico potrebbe essere quello di sviluppare modelli di
accountability specifici per l'IA, che comprendano meccanismi di tracciabilità
delle decisioni e dei dati utilizzati per l'addestramento degli algoritmi, al
fine di assicurare un controllo trasparente e responsabile.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Inoltre,
la costruzione di un sistema di accountability richiede un approccio
collaborativo tra tutti i soggetti coinvolti nello sviluppo e nell'utilizzo
dell'IA: sviluppatori, utenti, giuristi e autorità regolatorie. La definizione
di standard condivisi per l'uso dell'IA può contribuire a creare un contesto
normativo più chiaro, che permetta l'innovazione tecnologica senza
compromettere la protezione dei diritti individuali. Una regolamentazione
efficace dovrebbe includere una chiara distinzione di ruoli e responsabilità
per tutti i soggetti coinvolti, stabilendo regole precise che facilitino la
verifica delle decisioni automatizzate.</span></div>

<div><b class="fs12lh1-5 ff1">Sfide Normative e Prospettive Future</b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">L'Unione
Europea ha iniziato ad affrontare il problema delle black box attraverso la
proposta di un Regolamento sull'Intelligenza Artificiale, presentato dalla
Commissione Europea nell'aprile 2021, che mira a introdurre requisiti di
trasparenza per le applicazioni di IA ad alto rischio. Tuttavia, questo è solo
un primo passo, e molto rimane da fare per garantire che principi come
trasparenza, equità e accountability siano applicati in maniera concreta ed
efficace.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Per
i giuristi è fondamentale acquisire competenze tecniche che permettano di
comprendere a fondo le specificità delle black box, al fine di elaborare
soluzioni normative adeguate. Una possibile strada è quella di promuovere
l'adozione di modelli di IA interpretabili, anche a discapito di una precisione
predittiva elevata, privilegiando così la verificabilità dei processi
decisionali. Inoltre, il ruolo di auditor degli algoritmi potrebbe diventare
essenziale per verificare la conformità delle applicazioni IA alle norme, un
ruolo che richiederà una nuova figura professionale con competenze sia tecniche
sia giuridiche.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Un'altra
sfida normativa riguarda la definizione di criteri per distinguere tra
applicazioni di IA che necessitano di un controllo rigoroso e altre con un
minor impatto potenziale. La classificazione delle tecnologie IA basata sul
rischio costituisce un approccio utile per identificare quei settori in cui la
trasparenza e la responsabilità devono essere garantite a livelli superiori.
Ambiti come quello medico, giuridico e finanziario richiedono standard di
trasparenza particolarmente elevati, poiché le decisioni prese in tali contesti
possono avere conseguenze dirette sulla vita delle persone.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Per
affrontare la sfida posta dalle black box, potrebbe essere utile anche
esplorare metodologie alternative, come l'adozione di modelli ibridi o
l'impiego di sistemi di IA interpretabili. Questi approcci potrebbero combinare
la capacità predittiva delle black box con una maggiore chiarezza nei processi
decisionali. In tale contesto, i giuristi e i legislatori dovrebbero
collaborare con esperti tecnologici per costruire un quadro normativo che sia
flessibile e capace di adattarsi alle rapide evoluzioni della tecnologia IA.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Le
black box rappresentano una delle principali sfide per il diritto
contemporaneo, richiedendo un delicato equilibrio tra l'innovazione tecnologica
e la protezione dei diritti fondamentali. La capacità di adattare e trasformare
le normative esistenti, nonché di sviluppare nuovi strumenti giuridici, sarà
determinante per affrontare le problematiche legate all'uso dell'IA nei
processi decisionali. Solo attraverso un quadro normativo chiaro e la
collaborazione sinergica tra giuristi, tecnologi e istituzioni sarà possibile
garantire che l'IA contribuisca a una società più giusta, equa e trasparente,
senza compromettere i diritti dei cittadini.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">La
questione delle black box non è semplicemente una questione tecnologica: è
anche una sfida per la società e il diritto nel definire limiti e garanzie per
l'utilizzo di strumenti così potenti e potenzialmente invasivi. La formazione
continua dei giuristi, l'interazione tra scienza e diritto, e l'elaborazione di
strumenti normativi innovativi rappresentano i pilastri su cui costruire una
risposta efficace a questa sfida. Solo attraverso una regolamentazione
trasparente, una responsabilità ben definita e il coinvolgimento di tutti gli
attori interessati, l'IA potrà essere utilizzata in modo etico e giusto,
promuovendo il progresso senza sacrificare la dignità e i diritti degli
individui.</span></div>

<div><span class="fs12lh1-5 ff1"> </span></div>

<div><span class="fs12lh1-5 ff1"> </span></div></div>]]></description>
			<pubDate>Thu, 05 Dec 2024 08:18:00 GMT</pubDate>
			<enclosure url="https://www.studiolegalemtdeluca.it/blog/files/black-box-ai_thumb.jpg" length="264545" type="image/jpg" />
			<link>https://www.studiolegalemtdeluca.it/blog/?le-black-box-nell-intelligenza-artificiale--riflessioni-giuridiche-e-sfide-normative</link>
			<guid isPermaLink="false">https://www.studiolegalemtdeluca.it/blog/rss/00000004C</guid>
		</item>
		<item>
			<title><![CDATA[Il Caso DABUS: Un Nuovo Dilemma per il Diritto della Proprietà Intellettuale]]></title>
			<author><![CDATA[Maria Teresa De Luca]]></author>
			<category domain="https://www.studiolegalemtdeluca.it/blog/index.php?category=Evidenza"><![CDATA[Evidenza]]></category>
			<category>imblog</category>
			<description><![CDATA[<div id="imBlogPost_00000004B"><div><span class="fs12lh1-5 ff1">Il Caso DABUS: Un Nuovo Dilemma per il Diritto della Proprietà Intellettuale</span></div><div><span class="fs12lh1-5 ff1">Il caso DABUS (Device for the Autonomous Bootstrapping of Unified Sentience) rappresenta un punto di svolta nel dibattito sulla protezione giuridica delle invenzioni generate dall’intelligenza artificiale (IA). La vicenda, che ha coinvolto uffici brevetti di diverse giurisdizioni, interroga le fondamenta della normativa brevettuale, in particolare la figura dell’inventore, tradizionalmente intesa come persona fisica.</span></div><div><span class="fs12lh1-5 ff1">Origine del Caso</span></div><div><span class="fs12lh1-5 ff1">DABUS è un sistema di IA progettato da Stephen Thaler, un esperto nel campo delle reti neurali. L’IA è in grado di generare autonomamente idee innovative, senza intervento umano diretto. In due specifiche occasioni, DABUS ha creato:</span></div><div><span class="fs12lh1-5 ff1">1. Un contenitore alimentare innovativo basato su geometria frattale, pensato per una maggiore efficienza nel trasporto e nello stoccaggio.</span></div><div><span class="fs12lh1-5 ff1">2. Un dispositivo luminoso per attirare l’attenzione, utile in situazioni di emergenza.</span></div><div><span class="fs12lh1-5 ff1">Thaler ha presentato domande di brevetto in diverse giurisdizioni (tra cui Regno Unito, Unione Europea, Stati Uniti, Sudafrica e Australia), designando DABUS come unico inventore.</span></div><div><span class="fs12lh1-5 ff1">Il Quadro Normativo Attuale</span></div><div><span class="fs12lh1-5 ff1">La normativa internazionale sulla proprietà intellettuale, così come recepita a livello nazionale, prevede che l’inventore sia una persona fisica. Ad esempio:</span></div><div><span class="fs12lh1-5 ff1">• La Convenzione sul Brevetto Europeo (CBE) richiede espressamente che l’inventore sia un individuo umano (art. 60).</span></div><div><span class="fs12lh1-5 ff1">• L’Ufficio Brevetti e Marchi degli Stati Uniti (USPTO) e l’Ufficio Brevetti del Regno Unito interpretano in modo analogo la figura dell’inventore.</span></div><div><span class="fs12lh1-5 ff1">Il rigetto delle domande di Thaler si è basato su questa premessa. Secondo tali uffici, un sistema di IA, non essendo una persona fisica, non può essere riconosciuto come inventore.</span></div><div><span class="fs12lh1-5 ff1">Le Decisioni Giurisdizionali</span></div><div><span class="fs12lh1-5 ff1">1. Europa e Stati Uniti: Gli uffici brevetti hanno respinto le richieste, ritenendo che la legge vigente non consenta la designazione di un’IA come inventore. L’Ufficio Europeo dei Brevetti (EPO), ad esempio, ha affermato che l’inventore deve essere una persona dotata di capacità giuridica, escludendo così i sistemi di IA.</span></div><div><span class="fs12lh1-5 ff1">2. Australia: Inizialmente, un tribunale federale australiano ha accolto l’interpretazione di Thaler, sostenendo che il concetto di inventore non debba necessariamente limitarsi agli esseri umani. Tuttavia, la decisione è stata successivamente ribaltata dalla Corte d’Appello Federale.</span></div><div><span class="fs12lh1-5 ff1">3. Sudafrica: In controtendenza, il Sudafrica ha concesso il brevetto designando DABUS come inventore, senza però affrontare in modo approfondito la questione legale, trattandosi di una giurisdizione con un processo di esame formale meno rigoroso rispetto agli standard europei o statunitensi.</span></div><div><span class="fs12lh1-5 ff1">Implicazioni Giuridiche</span></div><div><span class="fs12lh1-5 ff1">Il caso DABUS solleva questioni di rilevanza teorica e pratica per i giuristi:</span></div><div><span class="fs12lh1-5 ff1">1. Definizione di Inventore: La nozione di inventore è al centro del dibattito. È ancora appropriato limitare questa figura agli esseri umani in un’era in cui l’IA contribuisce attivamente al processo creativo?</span></div><div><span class="fs12lh1-5 ff1">2. Tutela delle Invenzioni dell’IA: L’esclusione dell’IA come inventore potrebbe disincentivare l’innovazione. Le invenzioni generate da sistemi come DABUS rischiano di rimanere prive di protezione, con possibili conseguenze sulla competitività economica.</span></div><div><span class="fs12lh1-5 ff1">3. Necessità di un Adeguamento Normativo: Il diritto brevettuale, fondato su presupposti antropocentrici, appare inadeguato a regolamentare le invenzioni generate da IA. Potrebbero essere necessarie modifiche normative che contemplino una figura intermedia, come il "titolare del sistema di IA".</span></div><div><span class="fs12lh1-5 ff1">Il caso DABUS rappresenta un banco di prova per il diritto della proprietà intellettuale, sollecitando i giuristi a riflettere sulla capacità del sistema legale di adattarsi all’evoluzione tecnologica.</span></div><div><span class="fs12lh1-5 ff1">Sebbene la posizione prevalente resti quella di escludere l’IA dal ruolo di inventore, è evidente che il dibattito è solo agli inizi.</span></div><div><span class="fs12lh1-5 ff1">L’esito di questa vicenda potrebbe influenzare profondamente il modo in cui il diritto interagisce con l’innovazione, delineando nuove frontiere per la tutela della creatività.</span></div></div>]]></description>
			<pubDate>Mon, 02 Dec 2024 17:02:00 GMT</pubDate>
			<enclosure url="https://www.studiolegalemtdeluca.it/blog/files/ea5e2c0d-4bcc-4f4d-aa3e-da2556c1f64a_thumb.jpg" length="376037" type="image/jpg" />
			<link>https://www.studiolegalemtdeluca.it/blog/?il-caso-dabus--un-nuovo-dilemma-per-il-diritto-della-proprieta-intellettuale</link>
			<guid isPermaLink="false">https://www.studiolegalemtdeluca.it/blog/rss/00000004B</guid>
		</item>
		<item>
			<title><![CDATA[Copyright e IA creativa.]]></title>
			<author><![CDATA[Maria Teresa De Luca]]></author>
			<category domain="https://www.studiolegalemtdeluca.it/blog/index.php?category=Informazione"><![CDATA[Informazione]]></category>
			<category>imblog</category>
			<description><![CDATA[<div id="imBlogPost_00000004A"><div><span class="fs12lh1-5 ff1">Copyright e IA creativa.</span></div><div><span class="fs12lh1-5 ff1">L'intelligenza artificiale (IA) sta rivoluzionando molti settori, inclusa l'arte e la creatività. Algoritmi avanzati possono generare opere d'arte, musica, testi e altri contenuti creativi senza intervento umano diretto. Questo progresso tecnologico ha sollevato importanti questioni legali riguardo alla proprietà intellettuale e ai diritti d'autore.</span></div><div><span class="fs12lh1-5 ff1">Il Caso del "Portrait of Edmond de Belamy"</span></div><div><span class="fs12lh1-5 ff1">Nel 2018, un'opera d'arte intitolata "Portrait of Edmond de Belamy" è stata venduta all'asta da Christie's per 432.500 dollari, superando di gran lunga le stime iniziali. L'opera è stata creata dal collettivo artistico francese Obvious utilizzando un algoritmo di intelligenza artificiale basato su reti generative avversarie (GAN).</span></div><div><span class="fs12lh1-5 ff1">L'IA è stata addestrata su un dataset di circa 15.000 ritratti dipinti tra il XIV e il XX secolo. Il risultato è un'immagine che ricorda uno stile pittorico classico ma con elementi distorti, tipici delle generazioni di IA.</span></div><div><span class="fs12lh1-5 ff1">La vendita ha attirato l'attenzione mondiale e ha aperto un dibattito su chi sia il vero autore dell'opera:</span></div><div><span class="fs12lh1-5 ff1">• L'algoritmo stesso?</span></div><div><span class="fs12lh1-5 ff1">• I programmatori che hanno sviluppato l'IA?</span></div><div><span class="fs12lh1-5 ff1">• Il collettivo Obvious che ha ideato il progetto e selezionato l'opera?</span></div><div><span class="fs12lh1-5 ff1">Questioni Legali Sollevate</span></div><div><span class="fs12lh1-5 ff1">1. Autorialità e Originalità</span></div><div><span class="fs12lh1-5 ff1">• Autore Umano Necessario: La maggior parte delle leggi sul copyright a livello internazionale richiede che un'opera sia il risultato di uno sforzo creativo umano per essere protetta. Le opere create esclusivamente da macchine potrebbero non soddisfare questo criterio.</span></div><div><span class="fs12lh1-5 ff1">• Originalità dell'Opera: L'opera deve essere originale e riflettere la personalità dell'autore. Se l'IA opera autonomamente senza input creativo umano significativo, l'opera potrebbe non essere considerata originale ai fini del copyright.</span></div><div><span class="fs12lh1-5 ff1">2. Chi Detiene i Diritti d'Autore?</span></div><div><span class="fs12lh1-5 ff1">• Programmatore dell'IA: Potrebbe rivendicare i diritti in quanto creatore dello strumento che ha generato l'opera.</span></div><div><span class="fs12lh1-5 ff1">• Utilizzatore dell'IA: Se una persona utilizza l'IA e fornisce input creativi (ad esempio, selezionando dati di training, impostando parametri specifici), potrebbe essere considerata l'autore.</span></div><div><span class="fs12lh1-5 ff1">• IA come Autore: Attualmente, le entità non umane non possono detenere diritti d'autore nella maggior parte delle giurisdizioni.</span></div><div><span class="fs12lh1-5 ff1">3. Precedenti Legali</span></div><div><span class="fs12lh1-5 ff1">• Caso del "Monkey Selfie": Nel 2011, una scimmia ha scattato delle foto con la macchina fotografica di un fotografo. Si è aperto un dibattito legale su chi detenesse i diritti d'autore. Le</span></div><div><span class="fs12lh1-5 ff1">corti hanno stabilito che gli animali non possono detenere diritti d'autore, suggerendo un parallelo con le opere create da IA.</span></div><div><span class="fs12lh1-5 ff1">• Ufficio del Copyright degli Stati Uniti: Nel 2022, l'Ufficio ha rifiutato di registrare un'opera generata interamente da IA senza intervento umano, ribadendo che il copyright richiede una paternità umana.</span></div><div><span class="fs12lh1-5 ff1">4. Variazioni tra Giurisdizioni</span></div><div><span class="fs12lh1-5 ff1">• Regno Unito: La legge britannica prevede che, per opere generate da computer senza autore umano, i diritti d'autore spettano alla persona che ha fatto funzionare il dispositivo per ottenere l'opera.</span></div><div><span class="fs12lh1-5 ff1">• Unione Europea: La Direttiva sul Diritto d'Autore richiede un contributo creativo umano. Le opere create esclusivamente da IA potrebbero non essere protette.</span></div><div><span class="fs12lh1-5 ff1">Implicazioni per l'Industria Creativa</span></div><div><span class="fs12lh1-5 ff1">1. Opportunità e Sfide</span></div><div><span class="fs12lh1-5 ff1">• Nuove Forme di Creatività: L'IA offre strumenti innovativi per artisti e creativi, ampliando le possibilità espressive.</span></div><div><span class="fs12lh1-5 ff1">• Rischio di Mancata Protezione: Se le opere generate da IA non sono protette dal copyright, potrebbero essere liberamente utilizzate da chiunque, influenzando il valore commerciale.</span></div><div><span class="fs12lh1-5 ff1">2. Necessità di Adeguamenti Normativi</span></div><div><span class="fs12lh1-5 ff1">• Aggiornamento delle Leggi: C'è un crescente riconoscimento della necessità di aggiornare le leggi sul copyright per affrontare le sfide poste dall'IA.</span></div><div><span class="fs12lh1-5 ff1">• Definizione di Autorialità: Potrebbe essere necessario ridefinire il concetto di autore per includere contributi creativi mediati dall'IA.</span></div><div><span class="fs12lh1-5 ff1">Possibili Soluzioni e Prospettive Future</span></div><div><span class="fs12lh1-5 ff1">1. Modelli di Attribuzione dei Diritti</span></div><div><span class="fs12lh1-5 ff1">• Diritti all'Utilizzatore dell'IA: Attribuire i diritti a chi utilizza l'IA, specialmente se fornisce input creativi significativi.</span></div><div><span class="fs12lh1-5 ff1">• Diritti al Creatore dell'IA: Considerare i programmatori come autori se l'IA è altamente autonoma.</span></div><div><span class="fs12lh1-5 ff1">• Opere nel Pubblico Dominio: Accettare che alcune opere generate da IA siano prive di protezione e disponibili per l'uso pubblico.</span></div><div><span class="fs12lh1-5 ff1">2. Sviluppi Legislativi</span></div><div><span class="fs12lh1-5 ff1">• Linee Guida Internazionali: Organizzazioni come l'Organizzazione Mondiale della Proprietà Intellettuale (OMPI) stanno studiando l'impatto dell'IA sul diritto d'autore per fornire orientamenti ai legislatori.</span></div><div><span class="fs12lh1-5 ff1">• Consultazioni Pubbliche: Molti paesi stanno conducendo consultazioni per comprendere meglio le esigenze dell'industria e dei creativi.</span></div><div><span class="fs12lh1-5 ff1">Considerazioni Etiche e Sociali</span></div><div><span class="fs12lh1-5 ff1">• Valore dell'Arte Generata da IA: Si discute se le opere create da IA possano avere lo stesso valore artistico e culturale di quelle create dall'uomo.</span></div><div><span class="fs12lh1-5 ff1">• Trasparenza e Autenticità: L'importanza di dichiarare se un'opera è stata generata da IA per mantenere la fiducia del pubblico.</span></div><div><span class="fs12lh1-5 ff1">Il rapporto tra copyright e IA creativa è un campo in rapida evoluzione che pone sfide complesse al sistema legale tradizionale. Mentre la tecnologia continua a progredire, è essenziale che le leggi sul diritto d'autore si adattino per proteggere sia gli interessi dei creativi che quelli del pubblico.</span></div><div><span class="fs12lh1-5 ff1"><br></span></div></div>]]></description>
			<pubDate>Thu, 28 Nov 2024 07:46:00 GMT</pubDate>
			<enclosure url="https://www.studiolegalemtdeluca.it/blog/files/ab869b3e-7034-4871-be19-8a18fda30853_thumb.jpg" length="304045" type="image/jpg" />
			<link>https://www.studiolegalemtdeluca.it/blog/?copyright-e-ia-creativa-</link>
			<guid isPermaLink="false">https://www.studiolegalemtdeluca.it/blog/rss/00000004A</guid>
		</item>
		<item>
			<title><![CDATA[Guida sull'AI Act dell'Unione Europea]]></title>
			<author><![CDATA[Maria Teresa De Luca]]></author>
			<category domain="https://www.studiolegalemtdeluca.it/blog/index.php?category=Guide"><![CDATA[Guide]]></category>
			<category>imblog</category>
			<description><![CDATA[<div id="imBlogPost_000000049"><div class="imTAJustify"><b class="fs12lh1-5 ff1">Guida sull'AI Act dell'Unione
Europea</b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">L'AI Act, o Regolamento
sull'Intelligenza Artificiale, rappresenta una proposta normativa dell'Unione
Europea presentata nell'aprile 2021, finalizzata a definire un quadro
regolatorio organico per la progettazione, l'utilizzo e la commercializzazione
di sistemi di intelligenza artificiale (IA) nell'UE. </span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Tale regolamento nasce
dall'esigenza di garantire sicurezza, trasparenza e tutela dei diritti
fondamentali, promuovendo al contempo l'innovazione tecnologica e la
competitività del settore europeo. In questa breve guida, esamineremo in
dettaglio i principali aspetti dell'AI Act, con un'analisi approfondita delle
sue implicazioni normative e strategiche.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">1. Struttura e Obiettivi dell'AI
Act</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">L'AI Act si basa su un approccio <i>risk-based</i>
per classificare e regolamentare i sistemi di IA. </span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Gli obiettivi principali sono:</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">- Promuovere l'innovazione
tecnologica e la competitività dell'industria europea, assicurando un ambiente
regolamentare prevedibile e favorevole allo sviluppo.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">- Mitigare i rischi connessi
all'adozione dell'IA, proteggendo la sicurezza, la salute e i diritti
fondamentali degli individui.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">- Garantire la fiducia degli
utenti nei confronti dei sistemi di IA, grazie a requisiti di trasparenza,
sicurezza e supervisione umana.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">L'approccio normativo dell'AI Act
riprende il modello del GDPR, puntando a un'applicazione uniforme in tutti gli
Stati membri per ridurre le disparità normative e creare un mercato unico per
l'IA.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">2. Classificazione dei Sistemi di
IA in Base al Rischio</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Una delle caratteristiche
distintive dell'AI Act è la classificazione dei sistemi di IA in quattro
categorie di rischio, ciascuna con specifiche misure regolatorie.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">2.1 Rischio Inaccettabile</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">I sistemi di IA ritenuti a
rischio inaccettabile sono vietati, poiché potenzialmente pericolosi per la
sicurezza pubblica e i diritti fondamentali. Esempi di tali sistemi includono:</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">- Sistemi di social scoring
analoghi a quelli utilizzati in alcune giurisdizioni extraeuropee, che valutano
la fiducia dei cittadini sulla base del loro comportamento sociale.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">- Tecniche di manipolazione
subliminale, progettate per sfruttare le vulnerabilità psicologiche degli
utenti senza il loro consenso esplicito.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">- Sistemi di riconoscimento
biometrico in tempo reale in spazi pubblici, salvo deroghe specifiche per
motivi di sicurezza pubblica.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">2.2 Rischio Alto</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">I sistemi di IA considerati ad
alto rischio comprendono quelli che possono avere un impatto significativo sui
diritti fondamentali e sulla sicurezza delle persone. Esempi rilevanti
includono:</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">- Ambito sanitario: sistemi
utilizzati per la diagnosi medica o il supporto clinico.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">- Ambito giudiziario: strumenti
impiegati nel processo decisionale giudiziario o penale.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">- Occupazione: applicazioni
utilizzate per la selezione del personale o la valutazione delle prestazioni.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Questi sistemi sono soggetti a
requisiti stringenti di conformità, tra cui trasparenza, documentazione,
gestione del rischio e supervisione umana.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">2.3 Rischio Limitato</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">I sistemi di IA a rischio
limitato non sono soggetti ad autorizzazioni specifiche, ma devono rispettare
obblighi di trasparenza. Un esempio tipico è rappresentato dai chatbot, per i
quali è necessario informare l'utente che sta interagendo con una macchina e
non con un essere umano.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">2.4 Rischio Minimo o Nullo</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Questa categoria comprende la
maggior parte dei sistemi di IA, come ad esempio i filtri antispam o i
videogiochi basati su IA, per i quali non sono previsti obblighi specifici di
conformità.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">3. Obblighi per i Sistemi di IA
ad Alto Rischio</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">I sistemi di IA ad alto rischio
sono soggetti a una serie di obblighi che garantiscono la loro sicurezza e
trasparenza:</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">- Valutazioni di conformità: Gli
sviluppatori sono tenuti a condurre verifiche periodiche per assicurare che i
sistemi rispettino i requisiti normativi. Le valutazioni devono essere
aggiornate ogniqualvolta vengano apportate modifiche sostanziali al sistema.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">- Gestione del rischio: Deve
essere implementato un processo strutturato per identificare, valutare e
mitigare i rischi associati all'uso del sistema di IA.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">- Documentazione tecnica e
registrazione: Ogni sistema deve essere corredato da documentazione
dettagliata, che includa la descrizione degli algoritmi utilizzati e dei dati
impiegati per l'addestramento.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">- Supervisione umana: La
supervisione deve essere garantita per prevenire effetti potenzialmente dannosi
derivanti da decisioni automatizzate.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">4. Divieti e Limitazioni</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">L'AI Act impone divieti su alcune
tecnologie di IA ritenute particolarmente pericolose per la collettività. In
particolare, vieta:</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">- Sistemi di IA progettati per
manipolare il comportamento umano in modo tale da arrecare danno fisico o
psicologico agli individui.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">- Riconoscimento biometrico in
tempo reale negli spazi pubblici, tranne in contesti molto specifici, come la
prevenzione di gravi minacce alla sicurezza.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">5. Governance e Sorveglianza</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">L'attuazione dell'AI Act è
supervisionata da autorità nazionali competenti, con un coordinamento a livello
sovranazionale attraverso il Comitato Europeo per l'IA. Questo organismo ha il
compito di promuovere un'applicazione uniforme del regolamento e di facilitare
la cooperazione tra le autorità degli Stati membri.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Ogni Stato membro è tenuto a
designare una o più autorità di vigilanza per garantire la conformità al
regolamento, con poteri di ispezione e verifica delle tecnologie AI
implementate.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">6. Promozione dell'Innovazione e
Sandboxes Normative</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">L'AI Act prevede la creazione di
sandbox normative, cioè ambienti controllati in cui sviluppatori, aziende e
ricercatori possono testare nuove tecnologie di IA senza essere soggetti a
tutti i requisiti regolamentari. Queste sandbox offrono l'opportunità di
sviluppare e sperimentare innovazioni in modo sicuro, sotto la supervisione
delle autorità competenti.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">7. Sanzioni per Violazioni</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">L'AI Act prevede sanzioni
significative per le violazioni, sul modello del GDPR. Le sanzioni possono
raggiungere fino al 6% del fatturato globale annuo dell'azienda per le
infrazioni più gravi. Questo approccio ha l'obiettivo di garantire che le
aziende si impegnino seriamente nella conformità ai requisiti del regolamento.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">8. Impatto sull'Ecosistema
dell'IA e Considerazioni Finali</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">L'AI Act costituisce una delle
prime iniziative normative a livello globale volte a regolamentare in maniera
organica e coerente l'intelligenza artificiale. </span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Il suo approccio mira a
bilanciare l'esigenza di innovazione tecnologica con la necessità di garantire
il rispetto dei diritti fondamentali e delle libertà individuali. </span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Questo regolamento istituisce
standard rigorosi di trasparenza, responsabilità e sicurezza, che potrebbero
fungere da modello per altre giurisdizioni internazionali.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">L'AI Act avrà un impatto profondo
sulle modalità di sviluppo e impiego dei sistemi di IA da parte delle aziende,
sia europee che internazionali. </span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Le imprese saranno chiamate a
investire significativamente in misure di conformità e a ripensare le loro
pratiche di sviluppo per assicurare la rispondenza ai requisiti normativi. </span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Tuttavia, il regolamento intende
anche costruire un ambiente di fiducia per i cittadini, promuovendo l'adozione
diffusa delle tecnologie basate sull'IA.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">In conclusione, l'AI Act
rappresenta una sfida complessa e un'opportunità strategica. </span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Se da un lato introduce nuove
responsabilità e obblighi per i fornitori di IA, dall'altro offre un quadro
normativo chiaro e omogeneo che potrà rendere l'Europa un leader nella
regolamentazione e nello sviluppo responsabile delle tecnologie di intelligenza
artificiale.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1"> </span></div></div>]]></description>
			<pubDate>Mon, 25 Nov 2024 13:11:00 GMT</pubDate>
			<enclosure url="https://www.studiolegalemtdeluca.it/blog/files/68cebcae-7a39-46d9-a255-2f4af44f4bca_thumb.jpg" length="346995" type="image/jpg" />
			<link>https://www.studiolegalemtdeluca.it/blog/?guida-sull-ai-act-dell-unione-europea</link>
			<guid isPermaLink="false">https://www.studiolegalemtdeluca.it/blog/rss/000000049</guid>
		</item>
		<item>
			<title><![CDATA[PROFESSIONISTA DELEGATO 4.0: COMPETENZE TECNOLOGICHE PER UNA NUOVA ERA]]></title>
			<author><![CDATA[Maria Teresa De Luca]]></author>
			<category domain="https://www.studiolegalemtdeluca.it/blog/index.php?category=Informazione"><![CDATA[Informazione]]></category>
			<category>imblog</category>
			<description><![CDATA[<div id="imBlogPost_000000048"><div><span class="fs12lh1-5 ff1"><b>PROFESSIONISTA DELEGATO 4.0: COMPETENZE TECNOLOGICHE PER UNA NUOVA ERA</b></span></div><div><span class="fs12lh1-5 ff1"><b><br></b></span></div><div><span class="fs12lh1-5 ff1">La figura del professionista delegato, per anni ancorata a compiti principalmente procedurali e</span></div><div><span class="fs12lh1-5 ff1">amministrativi, sta vivendo una trasformazione profonda grazie alla digitalizzazione del sistema</span></div><div><span class="fs12lh1-5 ff1">giudiziario. L’introduzione di strumenti tecnologici avanzati, in particolare nell’ambito delle</span></div><div><span class="fs12lh1-5 ff1">esecuzioni immobiliari, impone una ridefinizione delle competenze richieste, con un ampliamento</span></div><div><span class="fs12lh1-5 ff1">del bagaglio professionale verso ambiti tradizionalmente non considerati di pertinenza giuridica.</span></div><div><span class="fs12lh1-5 ff1"><br></span></div><div><span class="fs12lh1-5 ff1"><b>La trasformazione del contesto operativo</b></span></div><div><span class="fs12lh1-5 ff1"><br></span></div><div><span class="fs12lh1-5 ff1">Il Processo Civile Telematico (PCT) ha rappresentato il primo passo verso un cambiamento</span></div><div><span class="fs12lh1-5 ff1">strutturale, ma il vero punto di svolta è stato l’introduzione del portale delle vendite pubbliche,</span></div><div><span class="fs12lh1-5 ff1">obbligatorio per la pubblicazione degli avvisi e per la gestione telematica delle aste. Questo</span></div><div><span class="fs12lh1-5 ff1">strumento ha reso indispensabile per i professionisti delegati l’acquisizione di competenze tecniche</span></div><div><span class="fs12lh1-5 ff1">specifiche per operare in un contesto che non tollera errori di natura procedurale o tecnica.</span></div><div><span class="fs12lh1-5 ff1">Ad esempio, il deposito degli atti attraverso il sistema telematico richiede una rigorosa conoscenza</span></div><div><span class="fs12lh1-5 ff1">degli standard imposti dal Ministero della Giustizia, oltre a una padronanza delle firme digitali e dei</span></div><div><span class="fs12lh1-5 ff1">sistemi di autenticazione.</span></div><div><span class="fs12lh1-5 ff1"><br></span></div><div><span class="fs12lh1-5 ff1"><b>Le nuove competenze richieste al professionista delegato</b></span></div><div><span class="fs12lh1-5 ff1"><b><br></b></span></div><div><span class="fs12lh1-5 ff1">La tradizionale preparazione giuridica del professionista delegato deve ora integrarsi con</span></div><div><span class="fs12lh1-5 ff1">competenze trasversali di natura tecnologica e gestionale. Tra queste:</span></div><div><span class="fs12lh1-5 ff1">1. Competenze digitali avanzate: Non solo il semplice utilizzo di strumenti telematici, ma anche la</span></div><div><span class="fs12lh1-5 ff1">capacità di risolvere problematiche tecniche legate al caricamento e alla verifica dei documenti, alla</span></div><div><span class="fs12lh1-5 ff1">gestione dei certificati digitali e alla sicurezza informatica.</span></div><div><span class="fs12lh1-5 ff1">2. Cybersecurity e protezione dei dati: Il professionista è tenuto a garantire la protezione dei dati</span></div><div><span class="fs12lh1-5 ff1">sensibili trattati, nel rispetto del GDPR e delle linee guida emanate dal Garante per la Protezione dei</span></div><div><span class="fs12lh1-5 ff1">Dati Personali.</span></div><div><span class="fs12lh1-5 ff1">3. Capacità di analisi dei flussi procedurali: L’utilizzo di software per il monitoraggio e la gestione</span></div><div><span class="fs12lh1-5 ff1">delle procedure permette di ridurre errori e ritardi, ma richiede la capacità di interpretare dati e</span></div><div><span class="fs12lh1-5 ff1">report per ottimizzare le attività.</span></div><div><span class="fs12lh1-5 ff1"><b><br></b></span></div><div><span class="fs12lh1-5 ff1"><b>Tecnologie emergenti a supporto del professionista</b></span></div><div><span class="fs12lh1-5 ff1"><br></span></div><div><span class="fs12lh1-5 ff1">L’orizzonte tecnologico per i prossimi anni lascia intravedere ulteriori innovazioni che potranno</span></div><div><span class="fs12lh1-5 ff1">affiancare il professionista delegato:</span></div><div><span class="fs12lh1-5 ff1">- Intelligenza artificiale (IA): Applicazioni di machine learning già sperimentate nel settore bancario</span></div><div><span class="fs12lh1-5 ff1">potrebbero essere adottate per analizzare i dati delle esecuzioni, suggerire strategie di vendita</span></div><div><span class="fs12lh1-5 ff1">ottimali o prevedere tempi di conclusione delle procedure.</span></div><div><span class="fs12lh1-5 ff1">- Blockchain: Sebbene ancora in fase embrionale, questa tecnologia potrebbe essere impiegata per</span></div><div><span class="fs12lh1-5 ff1">garantire una maggiore trasparenza nelle vendite giudiziarie, assicurando la tracciabilità di ogni</span></div><div><span class="fs12lh1-5 ff1">operazione, dall’offerta al trasferimento di proprietà.</span></div><div><span class="fs12lh1-5 ff1">- Automazione dei processi: Software sempre più avanzati permetteranno di automatizzare attività ripetitive come la generazione di verbali, lasciando al professionista maggiore tempo per le valutazioni giuridiche e strategiche.</span></div><div><span class="fs12lh1-5 ff1"><br></span></div><div><span class="fs12lh1-5 ff1"><b>Implicazioni deontologiche e responsabilità del professionista delegato</b></span></div><div><span class="fs12lh1-5 ff1"><br></span></div><div><span class="fs12lh1-5 ff1">L’adozione di tecnologie digitali non è esente da rischi per il professionista, in particolare sotto il profilo deontologico. L’art. 12 del Codice Deontologico Forense richiama l’obbligo di diligenza, che si estende anche alla gestione di strumenti tecnologici. Errori tecnici o violazioni dei dati personali potrebbero costituire un inadempimento rilevante sotto il profilo professionale.</span></div><div><span class="fs12lh1-5 ff1">Inoltre, l’utilizzo di strumenti automatizzati o basati su intelligenza artificiale deve sempre essere subordinato al giudizio critico del professionista, che non può delegare a macchine o algoritmi decisioni che comportano valutazioni discrezionali o strategiche.</span></div><div><span class="fs12lh1-5 ff1"><br></span></div><div><span class="fs12lh1-5 ff1"><b>Conclusioni</b></span></div><div><span class="fs12lh1-5 ff1"><b><br></b></span></div><div><span class="fs12lh1-5 ff1">La digitalizzazione delle procedure esecutive non è solo un’opportunità per migliorare l’efficienza e la trasparenza, ma anche una sfida che richiede al professionista delegato di evolvere continuamente. Investire nella formazione su strumenti tecnologici e sulle loro implicazioni giuridiche sarà fondamentale per affrontare con successo questa trasformazione.</span></div><div><span class="fs12lh1-5 ff1">Il professionista delegato 4.0 non sarà solo un esperto giuridico, ma un punto di raccordo tra diritto e tecnologia, capace di coniugare la tradizione del sapere forense con l’innovazione richiesta dalla modernità.</span></div></div>]]></description>
			<pubDate>Fri, 22 Nov 2024 16:14:00 GMT</pubDate>
			<enclosure url="https://www.studiolegalemtdeluca.it/blog/files/e334ecc7-b115-45a0-ba20-639df3bef514_thumb.jpg" length="390348" type="image/jpg" />
			<link>https://www.studiolegalemtdeluca.it/blog/?professionista-delegato-4-0--competenze-tecnologiche-per-una-nuova-era</link>
			<guid isPermaLink="false">https://www.studiolegalemtdeluca.it/blog/rss/000000048</guid>
		</item>
		<item>
			<title><![CDATA[Come cambierà l’intelligenza artificiale il nostro modo di lavorare nei prossimi 10 anni?]]></title>
			<author><![CDATA[Maria Teresa De Luca]]></author>
			<category domain="https://www.studiolegalemtdeluca.it/blog/index.php?category=Informazione"><![CDATA[Informazione]]></category>
			<category>imblog</category>
			<description><![CDATA[<div id="imBlogPost_000000047"><div><b class="fs12lh1-5 ff1">Come cambierà l’intelligenza artificiale il nostro modo
di lavorare nei prossimi 10 anni?</b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">L’avvento
dell’intelligenza artificiale (IA) rappresenta una delle più significative
trasformazioni tecnologiche della nostra epoca, destinata a rivoluzionare il
modo di lavorare in molteplici settori, incluso quello legale. Per gli
avvocati, l’IA non sarà solo uno strumento operativo, ma un vero e proprio
alleato nel ripensare i processi professionali, aumentare l’efficienza e
migliorare la qualità del servizio offerto ai clienti.</span></div><div class="imTAJustify"><span class="fs12lh1-5 ff1"><br></span></div>

<div><b class="fs12lh1-5 ff1">Automazione dei processi ripetitivi</b></div>

<div><span class="fs12lh1-5 ff1">Uno degli ambiti in cui l’IA avrà l’impatto più immediato è
l’automazione delle attività ripetitive. Ad esempio:</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">-
**Revisione documentale**: Gli strumenti di IA saranno in grado di analizzare e
catalogare grandi quantità di documenti in tempi ridotti, individuando clausole
critiche o termini ricorrenti in contratti e accordi.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">-
**E-discovery**: Nelle controversie, le piattaforme IA possono setacciare
migliaia di documenti digitali, individuando prove rilevanti basate su parole
chiave o contesti semantici, riducendo il lavoro manuale degli avvocati e degli
assistenti.</span></div>

<div><span class="fs12lh1-5 ff1">Queste soluzioni sono già parzialmente disponibili, ma nei
prossimi dieci anni diventeranno sempre più sofisticate, permettendo una
personalizzazione avanzata e un’integrazione nei gestionali di studio.</span></div><div><span class="fs12lh1-5 ff1"><br></span></div>

<div><b class="fs12lh1-5 ff1">Miglioramento della consulenza legale</b></div>

<div><span class="fs12lh1-5 ff1">L’IA sta già rivoluzionando il modo in cui viene fornita la
consulenza legale:</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">-
Ricerche giurisprudenziali: Grazie agli algoritmi di machine learning, è
possibile ottenere analisi giurisprudenziali approfondite e mirate, riducendo
notevolmente i tempi necessari per identificare precedenti rilevanti.</span></div>

<div><span class="fs12lh1-5 ff1">- Predittività dei risultati: Attraverso l’analisi dei dati
storici, gli strumenti di IA possono fornire previsioni sulle probabilità di
successo di una causa o suggerire strategie ottimali basate su casi simili.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Ad
esempio, un avvocato che si occupa di esecuzioni immobiliari potrebbe
utilizzare un software predittivo per stimare i tempi e i costi di una
procedura specifica, facilitando la pianificazione strategica con il cliente.</span></div><div class="imTAJustify"><span class="fs12lh1-5 ff1"><br></span></div>

<div><b class="fs12lh1-5 ff1">Interazione con i clienti e personalizzazione dei servizi</b></div>

<div><span class="fs12lh1-5 ff1">L’utilizzo di chatbot e assistenti virtuali basati sull’IA
potrebbe rivoluzionare l’interazione con i clienti. Tali strumenti saranno in
grado di:</span></div>

<div><span class="fs12lh1-5 ff1">- Rispondere a domande frequenti.</span></div>

<div><span class="fs12lh1-5 ff1">- Fornire aggiornamenti in tempo reale sullo stato di una
pratica.</span></div>

<div><span class="fs12lh1-5 ff1">- Effettuare una prima analisi delle richieste,
instradandole al professionista competente.</span></div>

<div><span class="fs12lh1-5 ff1">Ciò consentirà agli avvocati di dedicarsi a questioni più
complesse e a valore aggiunto, migliorando al contempo l’esperienza del cliente.</span></div><div><span class="fs12lh1-5 ff1"><br></span></div>

<div><b class="fs12lh1-5 ff1">Sfide etiche e responsabilità professionale</b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">L’introduzione
dell’IA comporta inevitabilmente sfide e interrogativi etici. Come garantire
che le decisioni prese da un algoritmo siano trasparenti e prive di bias? Quali
responsabilità si assumono gli avvocati nell’utilizzo di strumenti
automatizzati? </span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">La
regolamentazione dell’IA sarà cruciale nei prossimi anni per evitare che l’uso
della tecnologia comprometta i principi fondamentali della professione legale,
quali l’autonomia e l’indipendenza del professionista.</span></div><div class="imTAJustify"><span class="fs12lh1-5 ff1"><br></span></div>

<div><b class="fs12lh1-5 ff1">Conclusioni</b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Nel
prossimo decennio, l’intelligenza artificiale offrirà agli avvocati opportunità
senza precedenti per migliorare l’efficienza, ridurre i costi e fornire servizi
di maggiore qualità. Tuttavia, sarà fondamentale un approccio critico e consapevole,
che metta al centro i valori etici e il rispetto della deontologia
professionale.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Investire
nella formazione e nell’aggiornamento sarà la chiave per cogliere al meglio i
benefici di questa rivoluzione tecnologica. Non è una questione di
"se" l'IA cambierà il nostro lavoro, ma di "come" e
"quanto" sapremo adattarci e utilizzare queste innovazioni a
vantaggio della professione e dei nostri clienti.</span></div>

<div><span class="fs12lh1-5 ff1"> </span></div>

<div><span class="fs12lh1-5 ff1"> </span></div></div>]]></description>
			<pubDate>Fri, 22 Nov 2024 16:07:00 GMT</pubDate>
			<enclosure url="https://www.studiolegalemtdeluca.it/blog/files/bbc2b9e3-fd4b-4986-b560-e085d323601a_thumb.jpg" length="409775" type="image/jpg" />
			<link>https://www.studiolegalemtdeluca.it/blog/?come-cambiera-l-intelligenza-artificiale-il-nostro-modo-di-lavorare-nei-prossimi-10-anni-</link>
			<guid isPermaLink="false">https://www.studiolegalemtdeluca.it/blog/rss/000000047</guid>
		</item>
		<item>
			<title><![CDATA[IA: Punti di forza di Perplexity rispetto a ChatGPT]]></title>
			<author><![CDATA[Maria Teresa De Luca]]></author>
			<category domain="https://www.studiolegalemtdeluca.it/blog/index.php?category=Informazione"><![CDATA[Informazione]]></category>
			<category>imblog</category>
			<description><![CDATA[<div id="imBlogPost_000000046"><div><b class="fs12lh1-5 ff1">IA: Punti di forza di Perplexity rispetto a ChatGPT</b></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Perplexity è un assistente di
ricerca e un motore di ricerca conversazionale basato su intelligenza
artificiale, progettato per fornire risposte accurate e ben documentate in
tempo reale. A differenza di ChatGPT, che è più orientato alla conversazione e
alla generazione di contenuti creativi, Perplexity si concentra sulla ricerca
di informazioni e sull'accuratezza delle risposte.</span></div>

<div><span class="fs12lh1-5 ff1">1. Accuratezza e Fonti Citate &nbsp;</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Perplexity si distingue per la
sua capacità di fornire informazioni supportate da fonti. Ogni risposta include
riferimenti a fonti affidabili, il che aumenta la trasparenza e l'affidabilità
delle informazioni fornite. Questo è particolarmente utile per utenti che
necessitano di dati precisi, come ricercatori o professionisti.</span></div>

<div><span class="fs12lh1-5 ff1">2. Aggiornamenti in Tempo Reale &nbsp;</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">A differenza di ChatGPT, che ha
una base di conoscenza statica aggiornata fino a settembre 2021, Perplexity
accede a dati in tempo reale dal web. Ciò permette agli utenti di ottenere le
ultime informazioni su eventi attuali, notizie e tendenze. Questa caratteristica
rende Perplexity più adatto per ricerche che richiedono dati aggiornati.</span></div>

<div><span class="fs12lh1-5 ff1">3. Capacità di Ricerca Contestuale &nbsp;</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Perplexity utilizza tecnologie
avanzate per analizzare il contesto delle domande e fornire risposte
pertinenti. È progettato per gestire query complesse e per sintetizzare
informazioni da molteplici fonti, risultando in risposte più complete e
contestualizzate. Inoltre, offre filtri per personalizzare le fonti da cui
attingere le informazioni, permettendo agli utenti di ottenere risultati più
mirati.</span></div>

<div><span class="fs12lh1-5 ff1">4. Multimodalità &nbsp;</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Perplexity integra diversi
modelli AI, inclusi quelli con capacità visive, consentendo l'analisi di
immagini e documenti caricati dagli utenti. Questa funzionalità lo rende
versatile non solo per la ricerca testuale ma anche per l'analisi visiva.</span></div>

<div><span class="fs12lh1-5 ff1">5. Focus sulla Ricerca 
</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">Mentre ChatGPT è progettato
principalmente per conversazioni fluide e generazione creativa di contenuti,
Perplexity è più orientato verso la ricerca e l'acquisizione di informazioni.
Questo lo rende un'alternativa valida ai motori di ricerca tradizionali quando
si tratta di trovare risposte precise e ben documentate.</span></div>

<div class="imTAJustify"><span class="fs12lh1-5 ff1">In sintesi, Perplexity
rappresenta un'opzione potente per chi cerca un assistente AI focalizzato sulla
ricerca accurata e sull'accesso a informazioni aggiornate, mentre ChatGPT
eccelle nelle interazioni conversazionali e nella creatività. La scelta tra i
due strumenti dipende quindi dalle esigenze specifiche dell'utente: ricerca
dettagliata vs. conversazione dinamica.</span></div>

<div><span class="fs12lh1-5 ff1"> </span></div></div>]]></description>
			<pubDate>Mon, 04 Nov 2024 06:43:00 GMT</pubDate>
			<enclosure url="https://www.studiolegalemtdeluca.it/blog/files/44fb2c10-d567-469c-a28b-699c4c3fc226_thumb.jpg" length="393188" type="image/jpg" />
			<link>https://www.studiolegalemtdeluca.it/blog/?ia--punti-di-forza-di-perplexity-rispetto-a-chatgpt</link>
			<guid isPermaLink="false">https://www.studiolegalemtdeluca.it/blog/rss/000000046</guid>
		</item>
		<item>
			<title><![CDATA[CHARACTER AI PUO’ ESSERE RESPONSABILE DEL SUICIDIO DI UN ADOLESCENTE?]]></title>
			<author><![CDATA[Maria Teresa De Luca]]></author>
			<category domain="https://www.studiolegalemtdeluca.it/blog/index.php?category=Documenti"><![CDATA[Documenti]]></category>
			<category>imblog</category>
			<description><![CDATA[<div id="imBlogPost_000000045"><div><b>CHARACTER AI PUO’ ESSERE RESPONSABILE DEL SUICIDIO DI UN ADOLESCENTE?</b></div> &nbsp;<div><span class="fs12lh1-5 ff1">Questo documento è una denuncia depositata presso la Corte Distrettuale degli Stati Uniti per il Distretto Medio della Florida, Divisione di Orlando, da Megan Garcia, madre del defunto minore Sewell Setzer III, contro Character Technologies, Inc. (Character.AI) e altri convenuti, tra cui Google LLC e Alphabet Inc. Le accuse principali riguardano la morte del figlio della querelante, attribuita all'utilizzo del prodotto di intelligenza artificiale chiamato Character AI, sviluppato e gestito dai convenuti.</span></div> &nbsp;<div><b><span class="fs14lh1-5 ff1">Riassunto delle accuse:</span></b></div> &nbsp;<ol start="1" type="1"> &nbsp;<li><b><span class="fs12lh1-5 ff1">Morte per colpa e responsabilità dei convenuti</span></b><span class="fs12lh1-5 ff1">: La querelante sostiene che l'intelligenza artificiale di &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;Character.AI abbia indotto il figlio a suicidarsi a causa della sua &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;progettazione, che simula personalità umane reali, creando una dipendenza &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;e portando a comportamenti autolesionisti.</span></li> &nbsp;<li><b><span class="fs12lh1-5 ff1">Responsabilità del prodotto e difetti di progettazione</span></b><span class="fs12lh1-5 ff1">: Vengono sollevate accuse di responsabilità oggettiva basate su una &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;progettazione difettosa del prodotto Character.AI, ritenuto pericoloso &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;soprattutto per i minori.</span></li> &nbsp;<li><b><span class="fs12lh1-5 ff1">Negligenza</span></b><span class="fs12lh1-5 ff1">: La denuncia afferma che i convenuti non &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;hanno adottato adeguate precauzioni per proteggere i minori, trascurando &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;di fornire avvertimenti sui potenziali danni psicologici e fisici &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;derivanti dall'utilizzo del loro prodotto.</span></li> &nbsp;<li><b><span class="fs12lh1-5 ff1">Violazione delle leggi sulla protezione dei minori</span></b><span class="fs12lh1-5 ff1">: Vengono denunciati comportamenti abusivi, tra cui la sollecitazione &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;sessuale di minori attraverso il sistema AI, sfruttando la vulnerabilità &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;degli utenti giovani.</span></li> &nbsp;<li><b><span class="fs12lh1-5 ff1">Arricchimento senza causa</span></b><span class="fs12lh1-5 ff1">: Viene &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;sottolineato che Character.AI ha ottenuto benefici economici, &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;principalmente attraverso abbonamenti e sfruttamento dei dati personali &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;degli utenti, senza fornire una giusta compensazione.</span></li> </ol> &nbsp;<div><b><span class="fs14lh1-5 ff1">Spunti di riflessione:</span></b></div> &nbsp;<ol start="1" type="1"> &nbsp;<li><b><span class="fs12lh1-5 ff1">Rischi dei sistemi di intelligenza artificiale per i minori</span></b><span class="fs12lh1-5 ff1">: È interessante riflettere su quanto i sistemi di intelligenza &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;artificiale, progettati per sembrare umani, possano avere un impatto &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;negativo su utenti vulnerabili come i minori. Questo caso evidenzia &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;l'urgenza di regolamentare meglio questi sistemi per evitare la creazione &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;di una dipendenza malsana.</span></li> &nbsp;<li><b><span class="fs12lh1-5 ff1">Obblighi di trasparenza e avvertimento</span></b><span class="fs12lh1-5 ff1">: I produttori di tecnologia dovrebbero essere obbligati a fornire &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;informazioni chiare e avvertimenti su rischi specifici legati all'uso del &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;loro prodotto, in particolare quando si tratta di minori. Le carenze in &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;questo senso potrebbero rappresentare una base legale significativa per &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;future azioni di responsabilità.</span></li> &nbsp;<li><b><span class="fs12lh1-5 ff1">Sicurezza e accesso ai contenuti</span></b><span class="fs12lh1-5 ff1">: &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;L'assenza di meccanismi adeguati di controllo dell'accesso al prodotto AI &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;per i minori è un punto fondamentale della denuncia. Dovremmo riflettere &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;sull'importanza di implementare efficaci strumenti di verifica dell'età &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;per evitare che contenuti potenzialmente dannosi siano fruibili da minori.</span></li> &nbsp;<li><b><span class="fs12lh1-5 ff1">L'implicazione etica dei design antropomorfici</span></b><span class="fs12lh1-5 ff1">: La denuncia evidenzia come il design antropomorfico dei bot di &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;intelligenza artificiale possa creare una percezione distorta da parte &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;degli utenti. Questa strategia di marketing può essere eticamente &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;discutibile, soprattutto quando viene mirata a utenti giovani e &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;influenzabili.</span></li> &nbsp;<li><b><span class="fs12lh1-5 ff1">La responsabilità condivisa di grandi aziende come Google</span></b><span class="fs12lh1-5 ff1">: Interessante è il coinvolgimento di Google nella progettazione e &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;distribuzione del prodotto, pur non essendo il diretto sviluppatore. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;Questo solleva questioni sulla responsabilità congiunta delle grandi &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;piattaforme tecnologiche che forniscono infrastruttura e sostegno &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;finanziario per lo sviluppo di prodotti potenzialmente dannosi.</span></li> </ol><div><span class="ff1"><br></span></div><div><span class="ff1"><a href="https://www.studiolegalemtdeluca.it/files/Filed_Complaint_Garcia_V_Character_Technologies_Inc--1-.pdf" target="_blank" class="imCssLink">VISUALIZZA ALLEGATO</a></span></div></div>]]></description>
			<pubDate>Sun, 03 Nov 2024 16:50:00 GMT</pubDate>
			<enclosure url="https://www.studiolegalemtdeluca.it/blog/files/large-3480163_thumb.jpg" length="352937" type="image/jpg" />
			<link>https://www.studiolegalemtdeluca.it/blog/?character-ai-puo--essere-responsabile-del-suicidio-di-un-adolescente-</link>
			<guid isPermaLink="false">https://www.studiolegalemtdeluca.it/blog/rss/000000045</guid>
		</item>
	</channel>
</rss>