IA e mediazione civile: innovazione o rischio etico? La parola all’Avv. Lucchesi
"L’IA sfida l’etica. Mina il rapporto tra fiducia e controllo nel rapporto tra essa e l’uomo. Si rischia una totale svalutazione delle capacità umane. Sta a noi delimitare i confini nei quali poter avvalerci dell’uso dell’intelligenza artificiale"
L’Intelligenza Artificiale sta trasformando ogni aspetto della nostra società, dalla sanità alla finanza, fino al sistema legale. Nel campo della mediazione civile, l’IA potrebbe rivoluzionare il modo in cui gestiamo i conflitti, accelerando i processi e migliorando l’accesso alle informazioni: ma può bastare?
L’introduzione di questa tecnologia in un contesto tanto delicato quanto determinante per i risultati che le controversie producono, pone alcune domande cruciali, come: quali vantaggi concreti può offrire l’IA ai mediatori e alle parti coinvolte in una controversia?
Abbiamo posto questa e altri interrogativi all’Avv. Laila Lucchesi (in foto), esperta di Mediazione Civile e Familiare ed esperta F.a.c.s. per esplorare sia il potenziale innovativo dell’IA sia le sfide etiche e pratiche che questo sviluppo comporta.
Avv. Lucchesi, quali sono secondo lei i principali vantaggi che l’Intelligenza Artificiale può apportare al processo di mediazione civile rispetto ai metodi tradizionali?
“Il ruolo del mediatore, purtroppo ancora oggi non conosciuto ai più, è un ruolo apparentemente semplice ma nella realtà molto più complesso di quanto si pensi. Chiunque mastichi di diritto sa che il giudice deve essere un soggetto imparziale, ebbene anche il mediatore deve agire in maniera completamente imparziale nei confronti delle parti e rimanere neutrale rispetto alla lite. Questo compito non sempre è facile in quanto durante una sessione di mediazione, soprattutto nelle sessioni singole, ove la parte espone, spesso in modo segreto, i reali bisogni sottostanti la richiesta oggetto di mediazione.
Di conseguenza potrebbe essere molto facile per il mediatore lasciarsi influenzare dalle emozioni. Il confine è molto sottile e spero di spiegarlo nel modo più semplice possibile. La mediazione civile obbligatoria, ampliata dalla riforma Cartabia, prevede, alla base, controversie giuridiche. Orbene un mediatore per quanto esperto di diritto non potrà mai essere onnisciente quindi ecco che potrebbe entrare in gioco l’intelligenza artificiale, come aiuto, supporto al mediatore solo per quanto riguarda la parte giuridica della mediazione, si pensi, ad esempio, ad una complessa mediazione ereditaria.
Al mediatore, spetta invece, nella proposizione dell’accordo “giocare di fantasia” sempre perché, come detto sopra, pur rimanendo imparziale, è l’unico in grado di percepire i reali bisogni sottostanti alle richieste delle parti. Si pensi, sempre utilizzando l’esempio della divisione ereditaria, a più immobili per più eredi dove la legge impone una certa suddivisione. Ipotizziamo che, invece, una parte per raggiungere l’accordo, vuole proprio quell’immobile al quale è legata sentimentalmente, ecco l’intervento del mediatore che può risolvere il conflitto utilizzando il buon senso e non il rigido schema dell’IA. L’IA non potrebbe mai percepire tutto questo”.
Può fornirci un esempio pratico di come un algoritmo di apprendimento automatico ha già migliorato la risoluzione di controversie in ambito civile?
“Al momento non ci è dato sapere se è stato applicato un algoritmo nell’ambito di una controversia civile ma si sta studiando in tal senso”.
Quali sono le principali sfide etiche legate all’uso dell’IA nella mediazione civile, e come possono essere affrontate in modo adeguato?
“L’IA sfida l’etica. Mina il rapporto tra fiducia e controllo nel rapporto tra essa e l’uomo. Si rischia una totale svalutazione delle capacità umane. Sta a noi delimitare i confini nei quali poter avvalerci dell’uso dell’intelligenza artificiale. Essa è priva di sentimenti ed intuizioni. Oggi ci si sente messi in discussione ma non è così. Questa sfida può essere affrontata dalla capacità critica dell’uomo nell’utilizzo di questo strumento.
Oggi, si può utilizzare l’intelligenza artificiale per scrivere di qualsiasi argomento ma dobbiamo far caso alla “logica”, è qui che sta la differenza perché oltre alla serie di informazioni, di input che si possono mettere insieme, in realtà è la capacità di limare una qualità umana che è proprio quella della logica. Nonostante, quindi, i potenziali vantaggi, l’integrazione della IA solleva diverse questioni etiche.
Occorre, quindi, garantire l’imparzialità e l’equità dei sistemi basati sull’IA attraverso l’adozione di approcci trasparenti e la continua valutazione degli algoritmi utilizzati. Ogni innovazione apporta dei rischi e le risposte che la tecnologia promette di dare evidenzia come sia importante individuare e soprattutto mantenere i principi morali che sono alla base della nostra vita”.
Crede che l’IA possa mai sostituire completamente il ruolo del mediatore umano, soprattutto considerando aspetti come l’empatia e la comprensione emotiva delle parti coinvolte?
“Personalmente credo che l’IA non potrà mai sostituire determinati sentimenti umani. Possono creare algoritmi che si limitano a simulare emozioni, ma la capacità di porsi in modo immediato nello stato d’animo altrui o in una situazione di un’altra persona è solo umana. Il capire immediatamente i processi psichici dell’altro ascoltandolo o semplicemente guardando un’altra persona non può essere sostituito da una macchina.
Essendo esperta F.A.C.S., quindi occupandomi delle espressioni facciali, non posso non affermare che è davvero difficile, se non impossibile sostituire l’uomo. La comunicazione non verbale ci fornisce molti più di dati di quelle delle parole. Questo è un argomento che meriterebbe molto più spazio in una intervista perché a mio parere è proprio in quello che il corpo ci comunica a far comprendere i bisogni sottostanti, quelli effettivamente reali che un soggetto/parte effettivamente vuole veder soddisfatto in una lite/controversia”.
Nel contesto dell’uso dell’IA per fornire giustizia predittiva, quali sono i limiti etici che andrebbero stabiliti per evitare discriminazioni o pregiudizi?
“La giustizia predittiva è definita come la possibilità che la decisione giudiziale di un processo si affidi ad un algoritmo e qui rischierei di alzare un polverone. Come accennato il giudice è terzo ed imparziale, cioè si pone in una posizione di assoluta indifferenza e di equidistanza effettiva dalle parti contendenti.
Per lui l’ausilio dell’IA potrebbe essere molto comodo nella mera applicazione della legge. Il ruolo del mediatore, ampliamente esposto, è ben diverso! E se pensiamo non solo alla mediazione civile obbligatoria, quindi alle materie giuridiche, ma anche e soprattutto a quella volontaria che può avere ad oggetto i più svariati conflitti, l’intelligenza artificiale non potrebbe essere di alcun supporto”.
Ha menzionato il concetto di “scatola nera” degli algoritmi. In che modo possiamo garantire la trasparenza nel processo decisionale dell’IA, e quali sono i rischi se non si fa?
“Bella domanda! Ma troppo complessa. Innanzitutto dobbiamo far nostro il concetto che è un essere umano a porre la domanda all’IA e quindi già io rispetto ad un altro soggetto userei dei termini differenti magari per porre la stessa domanda e l’IA risponderebbe in modo diverso a me e all’altro.
In secondo luogo è un altro essere umano che ha inserito i dati nel sistema, che ha creato gli algoritmi ed ecco che tutti questi passaggi vanno a minare la cd. trasparenza nel processo decisionale della IA. Come citato nel mio articolo, pubblicato nella rivista di approfondimento scientifico Medì, il rischio non nasce dalla “macchina” ma dal “guidatore” che potrebbe rinunciare ad esercitare e promuovere le prerogative che gli sono proprie appiattendosi sulla risposta della IA, ritenendo quella risposta esaustiva e sufficiente all’esercizio della propria attività”.
Secondo lei, quali aspetti della mediazione civile dovrebbero restare sotto controllo umano, nonostante l’avanzamento dell’IA?
“Come già menzionato, in mediazione solo per l’aspetto dei dati certi ci si può valere dell’ausilio della IA, tutto il resto deve essere lasciato ai sentimenti umani. In pratica tutti, tranne quelli legati alla mera conoscenza tecnica e giuridica della questione oggetto di mediazione”.
Quale impatto prevede che la recente proposta di legge sulle “Norme per lo sviluppo e l’adozione di tecnologie di intelligenza artificiale” avrà sul settore della mediazione civile?
“In questo ambito, un dato positivo dell’IA PACT, è la creazione di una comunità collaborativa, in modo da condividere le proprie esperienza e conoscenze. L’uniformarsi adottando le stesse mappature di IA e quali escludere perché ad alto rischio. Si è ancora agli esordi per comprendere in modo profondo quali possano essere i pro ed i contro nella mediazione civile ma resto sempre dell’idea che ogni mediazione ha una storia a sé”.
Come vede l’evoluzione del rapporto tra IA e mediazione nei prossimi anni? Crede che sarà possibile mantenere un equilibrio tra efficienza tecnologica e fattore umano?
“Diciamo che sarebbe comodo creare un data base con tutti gli accordi positivi di mediazioni perché per le controversie puramente legali potrebbe essere comodo un confronto, per quanto riguarda, invece, l’equilibrio tra l’IA ed il fattore umano ho molti timori perché nella società in cui viviamo oggi si guarda solo l’aspetto economico e temporale a discapito dei bisogni umani che vengono sempre di più sopraffatti e soffocati quindi mi auguro che l’uomo non faccia vincere la comodità, il risparmio di tempo ed il compenso rispetto al soddisfacimento dei sentimenti delle parti coinvolte”.