Prime considerazioni personali sull’intelligenza artificiale

Condivido con voi , alcune impressioni personali e spunti successivi alla chiaccherata del 31 marzo 2019 in occasione del Computational Law and Blockchain fest 2019 di Legal Hackers sezione Torino.

Il documento serve anche a me come recap degli spunti per sviluppare il mio lavoro come professionista dei prossimi mesi.

Premessa la macchina non pensa

Un bias comune attualmente quando si parla di intelligenza artificiale è la convinzione che siamo ormai in grado di creare una replica di un essere umano che usa gli stessi schemi mentali.

Non è così.

Si è provato negli anni ’80 a creare un modello di intelligenza artificiale in grado di sviluppare un pensiero critico… e si è fallito (cfr. Susskind). Oggi noi riusciamo ad avere risultati efficienti perché la macchina esamina grosse quantità di dati e riesce a sviluppare una regola di decisione sulla base di quella che è la maggiore incidenza statistica della “risposta corretta”. Mi spiego: dopo aver esaminato 1.000.000 di ipotesi, istruita la macchina su qual è la soluzione corretta in 820.000 casi, si crea uno strumento in grado di avere un’attendibilità dell’82%. L’efficienza può essere aumentata da simulazioni interne e virtuali della macchina, come nel caso di una partita a scacchi.

La coda di trascinamento e il cigno nero

Corollario: un sistema basato sull’incidenza statistica non ha capacità creativa, è vulnerabile al cigno nero di Nassim (quell’ipotesi assurda e non prevedibile, ma che si verifica e sconvolge il modello statistico) e ha una forte coda di trascinamento legata al suo archivio. In pratica è un know-how molto efficiente per il come si fanno le cose legato all’esperienze passate, è molto lento ad adeguarsi alle novità e può addirittura fare resistenza a un’ipotesi creativa di un essere umano che non è coerente con il suo archivio (caso dell’aereo che si è schiantato perché il computer di assistenza alla guida non ha consentito ai piloti di fare una manovra anomala, che avrebbe salvato il volo… ma non era coerente con il database!)

Punto di discontinuità imminente?

AD 2025 (previsione world economic forum 2016) il cambio di passo avverrà nel momento in cui avremo le seguenti ipotesi:

  • 10% veicoli autonomi (self driving con intervento umano e driverless)
  • Una intelligenza artificiale entra come membro in un consiglio di amministrazione di una società
  • 30% delle attività impiegatizie attività di revisioni contabili gestite da una macchina

Domani è dietro l’angolo?

Intelligenza artificiale e servizi legali

Allo stato l’ingresso dell’intelligenza artificiale negli studi legali e nel sistema Giustizia è da intendere come possibilità di ricorrere ad acceleratori, ovvero sostituire alcune attività di studio e preparatorie che finora erano gestite con aumento del fattore umano dello studio e parallelizzazione con una macchina ben programmata.

Ipotesi già funzionanti sono:

  • Compliance in materia finanziaria (organizzazione e classificazione documenti con un ocr avanzato)
  • Organizzazione dei materiali e della documentazione in ipotesi di due diligence
  • Confronto di sistemi giuridici nazionali diversi (come cambia il franchising dall’Italia a New York)
  • Compilazione di contratti modulari e con clausole d’uso nel commercio internazionale
  • Implementazione delle funzioni di ricerca dei precedenti giurisprudenziali
  • Giustizia predittiva come supporto alla decisione del giudice e sperimentazione di ODR in cause bagatellari (domanda: se l’AI è affidabile per l’82% c’è un 18% di ipotesi per cui chi chiede giustizia otterrà una decisione sbagliata, qual è la percentuale a priori che riteniamo accettabile di decisioni ingiuste?)

L’ibridazione del prodotto è ibridazione del contratto

Spunto: nel caso di immissione sul mercato, anche retail, il (nuovo?) business è venderti un supporto fisico con un software incorporato in licenza che non puoi alterare ed è soggetto a costanti aggiornamenti.

Quella non è (allora) più una semplice vendita, ma un contratto a causa mista: parte compravendita e parte appalto di servizio.

Conseguenza: cambiano i termini di decadenza e prescrizione per l’acquirente in base a quale considereremo la natura prevalente del contratto.

L’etica non è una regola di gestione del rischio

Sarà che sono di scuola Austriaca (chi ha detto Reine Rechtslehre?), ma nel nostro modello di responsabilità per danni derivante dalle cose, l’elemento soggettivo del responsabile, e il suo credo personale, c’entra poco o nulla.

L’etica spesso è un portato di un sistema religioso cui aderisce la persona fisica, in caso di un processo di fronte a un Giudice il fatto che una macchina a guida autonoma sia stata educata a fare scelte secondo l’etica cattolica o fa riferimento alla Shari’ah islamica che utilità ha nella scelta su chi allocare definitivamente il danno da questa causato (su chi l’ha costruita o su chi l’ha subito)?

Non riesco a togliermi dalla testa che tutto questo parlare di etica nello sviluppo di intelligenze artificiali sia spesso più un elemento di marketing, un po’ come dire che avete applicato la blockchain al vostro business, che una chiave di risoluzione di conflitti futuri.

In caso di dubbio, poi, più che di animali ex art. 2052 c.c., se vogliamo tenere l’etica nell’equazione, mi parrebbe più corretto parlare di responsabilità del “padre” che educa e struttura il “pensiero” artificiale del soggetto (allo stato incapace) ex art. 2049 c.c. (con prova di un costante esercizio dello ius corrigendi).

Forme di responsabilità oggettiva

In un intervento al fest si è fatto un cenno alle macchine di “seconda generazione”, cioè create da altre macchine in relazione alle quali il produttore ignora lo schema decisionale da queste ultime usato per operare, perché non le ha programmate e addestrate lui.

Ora l’aspirazione di irresponsabilità che sottende questa affermazione non è accettabile: finchè l’intelligenza artificiale non avrà una sua soggettività giuridica (e un proprio patrimonio con cui rispondere dei danni che causa) per me responsabile è chi la costruisce e la immette sul mercato e se non è in grado di controllare le conseguenze del processo produttivo che mette in moto…. Sta esercitando attività pericolosa ai sensi dell’art. 2050 c.c.

Non dimentichiamoci poi che in ambito europeo esiste un quadro normativo comune per la responsabilità del produttore per i danni causati ai consumatori (ora trasposta nel codice del consumo).

La “vecchia” direttiva macchine

A distanza di un anno dal dibattito su smart contract e responsabilità, il motto è ancora “non sparate sul programmatore!”: i software con cui la macchina “pensa” sono educati sulle regole date dal committente e che le incorpora su un supporto hardware che poi gestisce i calcoli, quindi la catena di responsabilità non risale a ritroso fino all’informatico, ma si ferma al’imprenditore che crea il prodotto complesso.

Atteso che l’intelligenza artificiale è un prodotto composto di hardware e software (e l’etica non mi piace come sistema di risk management) un modo di allocare in maniera efficiente il rischio e che tiene lontano l’indagine sull’elemento soggettivo potrebbe essere la direttiva macchine (2006/42/CE):

a) obbligo del fabbricante di indicare i limiti della macchina e il suo uso corretto

b) il riferimento a standard sulla sicurezza emanati da organismi accreditati o quantomeno allo stato dell’arte, con esibizione della certificazione ottenuta e regolarmente rinnovata

c) la concezione della sicurezza come un dato dinamico, con un forte servizio di customer care post vendita e aggiornamento del database alle nuove ipotesi che la vita ha creato

d) obbligo del costruttore di prevedere anche i possibili errori dell’utilizzatore ove siano frequenti e le misure di prevenzione volte ad evitarne il verificarsi (anche con appositi corsi di formazione come servizio aggiuntivo)

Devianza dell’intelligenza artificiale e rieducazione del condannato

Come breve provocazione se un’intelligenza artificiale diventa pericolosa per l’uomo la riprogrammiamo o la spegniamo del tutto e ritiriamo il prodotto dal mercato? Luigi Lombardi Vallauri diceva che l’inferno è incostituzionale perché non tende alla rieducazione del condannato…

Intelligenza Artificiale e proprietà intellettuale

Gli algoritmi che sviluppano un’intelligenza artificiale sono open source, il che significa che quello che è la capacità distintiva di un modello di intelligenza artificiale è il database di partenza e il suo educatore che per primo dà le linee guida su cui deve svilupparsi il “pensiero” artificiale.

Se questi due elementi non dimostrano capacità inventiva, l’opera non sarebbe tutelabile con una privativa.

E finchè non diamo soggettività giuridica all’intelligenza artificiale, le opere e i prodotti di secondo grado che questa crea sono frutti del bene e di proprietà dell’originale costruttore.

Intelligenza artificiale e organizzazione del lavoro

La gig economy ha dimostrato la modificazione del potere gerarchico del datore di lavoro e la sua esternalizzazione a piattaforme, app e forme di intelligenza artificiale (scoring, localizzazione e produttività del dipendente): salvati dall’art. 22 GDPR?

In ogni caso, programmare  e usare una macchina che fa uso di forme di inelligenza e artificiale richiede tempo e studio, verso (finalmente) un un uso adeguato del contratto di apprendistato e formazione?(invece che perdere posti di lavoro se ne possono creare ad hoc)

A brave new world

Huxley descrive in una distopia in cui pochi soggetti hanno il Sapere e gli altri sono organizzati in una società classista, con poca consapevolezza della propria identità, capacità di fare oltre il compito per cui sono addestrati e senza visione del quadro di insieme: in un mondo dove l’intelligenza artificiale è in rialzo, chi conta è chi sa come si fanno le cose prima della sua introduzione e sa come programmarla, chi usa il prodotto finito senza l’intervento della macchina, se non è educato a farlo, non sa come giungere allo stesso risultato senza l’intermediazione della stessa.

Nel regno dei ciechi… chi ha anche un solo occhio è re.