Sentiamo parlare sempre più di frequente di Intelligenza Artificiale e di come questa strana forma di intelletto robotico stia rivoluzionando ogni settore del mercato e del mondo del lavoro, incrementando di gran lunga la produttività delle aziende e reinventando, altresì, l’intrinseco concetto di lavoro, costruendo ex novo figure professionali e metodi strategici.
Quando parliamo di intelligenza artificiale (IA) ci riferiamo a sistemi o macchine che, di fatto, imitano l’intelligenza umana per eseguire attività e processi in grado di migliorarsi continuamente in base ai dati raccolti. Questa “nuova tecnologia” rappresenta attualmente la risorsa più preziosa per le aziende di qualsiasi campo in grado di attirare la maggior parte, se non la totalità dei nuovi investimenti.
Secondo Harvard Business Review, le imprese utilizzano maggiormente l’intelligenza artificiale per:
– Rilevare e impedire le intrusioni di sicurezza (44%);
– Risolvere i problemi tecnologici degli utenti (41%);
– Ridurre le attività di gestione della produzione (34%);
– Misurare la compliance interna relativa all’utilizzo dei fornitori approvati (34%).
Tuttavia, l’IA è davvero approdata in ogni campo, raggiungendo risultati sempre più sorprendenti, dal mondo industry a quello scientifico, sanitario, legale.
Se infatti qualche anno fa si parlava di Industry 4.0 con l’obiettivo di interconnettere macchine, processi e sistemi per la massima ottimizzazione delle prestazioni, oggi già si parla di Industry 5.0 (c.d. Collaborative Industry) che porta tale efficienza e produttività ancora più avanti affinando sempre più le interazioni collaborative tra uomo e macchina.
Uno dei vantaggi maggiormente acquisiti dalle aziende con l’IA è rappresentato dalla possibilità di lavorare su enormi quantità di dati, il c.d. “petrolio del futuro”. Ad esempio, Netflix utilizza il machine learning per offrire un livello di personalizzazione che ha consentito di aumentare la base clienti di più del 25% nel 2017. Ed ancora Amazon, dispone di un database contenente un numero enorme di transazioni dalle quali può automaticamente estrarre i parametri per l’abbinamento tra prodotti e clienti. In campo medico si registrano risultati ancor più sorprendenti, come quelli raggiunti con Deep Patient, uno strumento basato sull’intelligenza artificiale realizzato dalla Icahn School of Medicine at Mount Sinai (New York), che analizza la storia clinica di un paziente ed è in grado di prevedere quasi ottanta malattie fino a un anno prima della comparsa.
Da questi esempi emerge come l’intelligenza artificiale possa manifestarsi in ogni campo ed in varie forme, tra le quali possiamo menzionare:
· i chatbot che utilizzano l’intelligenza artificiale per comprendere più rapidamente i problemi dei clienti e fornire risposte più efficaci;
· gli assistenti intelligenti che utilizzano l’intelligenza artificiale per analizzare le informazioni importanti provenienti da una grande quantità di dati di testo libero per migliorare la pianificazione;
· i motori di raccomandazione che sono in grado di fornire consigli automatici per programmi TV in base alle abitudini televisive degli utenti.
Il dominio degli algoritmi e la loro sorprendente potenzialità non si arresta al mondo scientifico e sanitario ma registra interessanti passi in avanti anche nel mondo del diritto. Uno degli esempi più eclatanti di applicazione dell’IA, nei processi di Governance aziendale, è rappresentato dal software VITAL (Validating investment tool for advancing life sciences) un software nominato membro ufficiale del consiglio di amministrazione della società Deep Knowledge Ventures (con sede in Hong Kong) e come tale, con diritto di voto in assemblea.
Il software analizza gli investimenti ipotizzati dai membri umani del board processando una quantità enorme di dati (brevetti, sperimentazioni cliniche, sostenibilità finanziaria delle aziende su cui puntare), prevedendone l’eventuale successo. Insomma, un software in grado di analizzare i rischi e le aree di investimento dei progetti, grazie ad un sofisticato sistema di algoritmi.
Altro strumento interessante è quello utilizzato dalla JP Morgan Chase & Co, una banca americana che utilizza uno strumento denominato COIN (Contract Intelligence) che interpreta gli accordi commerciali ed i contratti di finanziamento in tempo reale.
Insomma, non solo l’assetto societario ma anche quello commerciale riescono ad avvalersi di apparati tecnologici e sistemi algoritmici che agiscono quali veri imprenditori anche in assenza di controllo umano diretto tanto da dare luogo a dibattiti giurisprudenziali in tema di autonomous entity soprattutto in termini di liability.
Altro esempio che interessa il mondo investigativo, è rappresentato da uno strumento a noi molto più vicino che è Molecola il programma utilizzato dai finanzieri dello Scico (Servizio centrale di investigazione sulla criminalità organizzata) nelle indagini patrimoniali per far emergere la sproporzione tra redditi dichiarati e l’effettivo tenore di vita.
L’algoritmo mescola dati, nomi, luoghi, proprietà, conti bancari, polizze assicurative, li mette in correlazione ed evidenzia le incongruità. Il software è in grado di recuperare in forma massiva dati e notizie su ciascun soggetto d’interesse investigativo, di attribuire coerenza a tali dati che vengono messi a sistema con tutte le informazioni rilevabili dalle banche dati in uso alla Guardia di Finanza.
La maggior parte dei succitati esempi di IA, si basa principalmente sul deep learning (apprendimento profondo) e sul natural language processing (elaborazione del linguaggio naturale), processi in base ai quali, i computer, possono imparare a svolgere compiti specifici elaborando grandi quantità di dati e riconoscendo i modelli.
Traslando tali strumenti al mondo legale, ritroviamo un impiego di tools di predictive policing ossia di strumenti utilizzati soprattutto nella prevenzione della criminalità che in base calcoli probabilistici ed algoritmici elaborano previsioni (ad esempio sono in grado di prevedere luoghi ed orari in cui verosimilmente potranno essere commessi altri reati della stessa specie).
L’ IA si adatta attraverso algoritmi di apprendimento progressivo e lascia che siano i dati a fare la programmazione. Mentre l’IA risulta già ampiamente utilizzata in termini investigativi, predittivi ed integrativi in molte attività dell’homus juridicus, lo stesso non può dirsi nell’applicazione alla fase decisoria della giustizia. Il dibattito sulla potenziale integrazione dell’IA all’attività del giudice è ancora molto confuso e caliginoso.
L’interrogativo su cui si pone maggiormente l’attenzione è la capacità o meno di uno strumento di IA di prevedere l’esito di un giudizio.
Ed infatti, se è certa la possibilità di assistenza dell’IA ai sistemi di giustizia penale (per la quale la Commissione Europea il 4 Dicembre 2018 ha emanato le relative linee guida), non può dirsi ugualmente per l’applicazione del machine learning nella vera e propria attività di formulazione dei giudizi.
Si deve anzitutto considerare che il procedimento decisionale si traduce in una “trasformazione di una situazione antecedente indeterminata in una situazione finale determinata attraverso una serie di sistemazioni parziali intermedi” e che alla base di tale processo vi è una forma di ragionamento. Conosciamo tre metodologie di ragionamento:
1. il metodo induttivo che parte dai dati (premesse e risultati conosciuti) e costruisce regole/leggi (logica tipica degli scienziati, applicata quando si vuole risalire ad una legge naturale osservando quale risultato è stato ottenuto partendo da certe situazioni o premesse iniziali conosciute);
2. il metodo deduttivo che da premesse conosciute o leggi genera dati ossia ricava esiti e/o risultati (si applica quando si vuole sapere quali risultati si ottengono applicando delle leggi conosciute);
3. il metodo abduttivo che partendo da regole/leggi e risultati conosciuti vuole ricostruire le premesse ed i dati iniziali (dato un caso conosciuto riconduce la situazione/risultato alle ipotesi di leggi che hanno generato la fattispecie). Questo tipo di logica è propria di chi “cerca”, ossia tipica dell’attività di un medico o di un investigatore: ricostruire una situazione iniziale, conoscendo il risultato che è stato ottenuto per effetto di una legge nota.
Anche in questo caso la situazione iniziale che si ricostruisce non è mai certa ma valida solo con un dato livello di probabilità.
L’IA si basa proprio su quest’ultimo metodo, il metodo abduttivo.
L’IA trova la struttura e le regolarità nei dati conosciuti in modo che l’algoritmo acquisisca un’abilità: l’algoritmo diventa un classificatore o un predittore. Così, proprio come l’algoritmo può auto-apprendere come giocare a scacchi, può insegnare a se stesso quale prodotto raccomandare online ecc. La retro-propagazione è infatti una tecnica di intelligenza artificiale che permette al modello di adattarsi attraverso addestramento e dati aggiuntivi, quando la prima risposta non è corretta.
Tale metodo rappresenta a sua volta il limite principale dell’intelligenza artificiale, in quanto essa è soggetta al c.d. errore dell’affermazione del conseguente. Il passaggio non è garantito dalle leggi logiche per cui un’implicazione è equivalente alla propria contronominale ma non alla propria inversa.
L’IA impara dai dati e non vi è altro modo d’incorporare conoscenza. Essa utilizza un approccio di “Commonsense reasoning” ossia basato sulla conoscenza, sull’apprendimento automatico e sull’utilizzo di un’ampia corpora di dati. Ciò significa che qualsiasi imprecisione nei dati si rifletterà nei risultati. E ogni ulteriore livello di previsione o di analisi dovrà essere effettuato separatamente.
A parte la possibilità di erroneità della previsione, altro aspetto su cui focalizzare l’attenzione è quello del bilanciamento dei diritti fondamentali, in quanto l’IA deve operare mediante algoritmi eticamente corretti ossia in conformità a principi etici e dotarsi dei requisiti stabiliti dalla “Carta Etica Europea per l’uso dell’intelligenza artificiale nei sistemi di giustizia penale e nei relativi ambienti” emanata il 4 Dicembre 2018 dalla Commissione Europea per l’Efficienza della Giustizia (CEPEJ) del Consiglio d’Europa.
In base alle linee guida della Commissione Europea, affinché un’intelligenza artificiale possa dirsi conferme all’etica dovrà rispettare i seguenti principi:
1. Principio del rispetto dei diritti fondamentali: assicurare l’elaborazione e l’attuazione di strumenti e servizi di intelligenza artificiale siano compatibili con i diritti fondamentali.
2. Principio di non-discriminazione: prevenire specificamente lo sviluppo o l’intensificazione di discriminazioni tra persone o gruppi di persone. (I sistemi di intelligenza artificiale devono tener conto delle diverse e distinte abilità umane, al tempo stesso garantendo a tutti il libero accesso a tali strumenti).
3. Principio di qualità e sicurezza: in ordine al trattamento di decisioni e dati giudiziari, utilizzare fonti certificate e dati intangibili con modelli elaborati multidisciplinarmente, in un ambiente tecnologico sicuro.
4. Principio di trasparenza, imparzialità ed equità: rendere le metodologie di trattamento dei dati accessibili e comprensibili, autorizzare verifiche esterne. (Garantire la tracciabilità dei sistemi)
5. Principio “del controllo da parte dell’utilizzatore”: precludere un approccio prescrittivo e assicurare che gli utilizzatori siano attori informati e abbiano il controllo delle loro scelte. Noto anche come principio “under user control”.
La scommessa nell’immediato futuro è quella di riuscire a gestire la repentina trasformazione dei tempi. Come? Il mondo legal dovrà fare attenzione a stare al passo con quello dell’evoluzione scientifica mantenendo il suo dominio e focalizzandosi sulla creazione di un’antropologia da definire ex novo per garantire la protezione dei diritti fondamentali e ricercare il giusto equilibrio tra etica, algoritmi ed automazione.