X
    Categories: blog

Il lato oscuro della IA

Nel precedente articolo sono stati introdotti i concetti di Intelligenza ArtificialeMachine Learning e Deep Learning, sottolineando che gli strumenti basati su queste tecnologie sono utilizzati quotidianamente da tutti noi, più o meno in modo consapevole.

Informazioni di varia natura su di noi e sui nostri comportamenti vengono collezionate e “digerite” da questi sistemi, solitamente per profilarci.
L’obiettivo ultimo di questa profilazione dipende dal caso: un sito di e-commerce può voler conoscere, sulla base degli acquisti e delle ricerche che facciamo, quali offerte possono allettarci di più, un motore di ricerca può configurarsi in modo da presentare per primi i risultati che più ci possono interessare, un sistema di sicurezza può capire quali siano le nostre intenzioni e decidere se aumentare o meno il livello di attenzione nei nostri confronti, e così via.

La profilazione delle persone, sebbene ricopra una grossa fetta dei casi d’uso, non è l’unico esempio di come viene utilizzata l’IA. Esistono in particolare sistemi progettati per prendere decisioni in autonomia in diversi campi di applicazione, dall’automobile a guida autonoma, alle applicazioni scientifiche (si pensi ai “rover” marziani o ai sistemi di riconoscimento di patologie utilizzati in campo medico), a quelle industriali per il monitoraggio ed il comando delle macchine di produzione, eccetera.

Questi sistemi sempre più complessi e sempre più presenti, sono sviluppati per aiutare e supportare l’uomo. Ma ci possono essere anche utilizzi meno etici?

Dobbiamo capire che l’IA mette a disposizione degli strumenti che come tali sono “neutri“: è l’uso che se ne fa che può essere “buono” o “cattivo“, esattamente come un coltello può essere utilizzato per sbucciare una mela o ferire una persona.

Quindi la risposta alla domanda precedente è decisamente SI, è possibile utilizzare le potenzialità di questi sistemi per scopi meno nobili se non addirittura illegali.

Facciamo qualche esempio: sfruttando i social network si potrebbero individuare persone con ampio seguito (i cosiddetti “influencer“) e deviarne la popolarità focalizzando su di essi della disinformazione, con lo scopo di danneggiarli o viceversa di agevolarne la popolarità, influenzando quindi l’opinione pubblica (pensate a cosa potrebbe accadere in caso di elezioni politiche o di referendum o anche nel campo finanziario come potrebbero reagire i mercati a notizie create ad hoc).

Un altro esempio potrebbe essere quello di utilizzare tecniche di video editing molto sofisticate per falsificare dei video che riprendono un politico, un imprenditore o una celebrità in generale. Per farsi una idea delle potenzialità già esistenti, si pensi alle comuni app di “face substitution” o a tecnologie più recenti come quella utilizzata dal progetto di “motion retargeting” che è possibile vedere in azione nel video Everybody Dance Now, che consente di applicare i movimenti di una persona ad un’altra. Sì, è vero, il risultato non è ancora perfetto, ancora si capisce che sono contraffazioni, ma quanto si impiegherà ad ottenere facilmente effetti speciali degni di un ottimo film di Hollywood?

Questi semplici esempi sollevano dubbi e perplessità nell’utilizzo di sistemi di IA, in particolare per quelli con elevato tasso di autonomia decisionale.

Facciamo il caso di un’auto a guida autonoma. Viene addestrata per decidere il proprio comportamento di sterzata, frenata ed accelerazione anche nei casi di emergenza che si possono presentare, ad esempio quando un pedone decide di attraversare la strada senza preavviso e senza fare attenzione.

Se la situazione in cui venisse a trovarsi l’auto fosse tale da poter salvare, a seconda della manovra adottata, solo uno tra passeggero e pedone, chi dovrebbe salvare il sistema di guida: il passeggero o il pedone?

Con quale criterio, con quale “coscienza” dovrebbe fare questa scelta?
Inoltre, comprereste mai un’auto che, potenzialmente, potrebbe decidere di sacrificarvi per salvaguardare l’incolumità di uno sconosciuto?

Altro esempio: i sistemi automatici di censura utilizzati da vari social network, possono comprendere la differenza che c’è, ad esempio, tra un nudo pornografico ed un nudo artistico? È famoso il caso di una fotografia di Nick Ut, divenuta un simbolo della guerra del Vietnam, premiata addirittura con un Pulitzer, censurata da Facebook in quanto ritrae, tra gli altri, una bambina (Kim Puch) che fugge nuda dopo essere rimasta gravemente ustionata da un bombardamento al napalm sul suo villaggio.
È indubbiamente una fotografia che immortala un nudo.
Quindi, sì, tecnicamente parlando l’IA ha fatto il suo dovere.
Ma la sensibilità umana va oltre e classifica quella foto in maniera completamente diversa da un topless da spiaggia: in quella foto non è impresso semplicemente un nudo, ma qualcosa di diverso, una testimonianza, un sentimento fortissimo, qualcosa che al momento nessuna macchina sa valutare né comprendere.

Alla luce di questi esempi ci si può chiedere se le IA utilizzate in campo militare o se i sistemi di decisione automatica che, ad esempio, predicono chi commetterà un crimine o chi merita di uscire dal carcere e così via, possano veramente fare la scelta più “giusta” in ogni situazione.

Per avere una risposta è necessario guardare un po’ più da vicino come funziona una IA.

Una IA è una macchina che supera il classico modello IFTTT (If This Then That), dove il programmatore analizza il problema, individua a priori tutte le possibili situazioni in cui il sistema potrà trovarsi e decide quale sarà la risposta per ogni singola combinazione. Semplificando molto, un “sistema intelligente” imparerà in autonomia il comportamento da tenere sulla base di esempi e di esperienze passate, senza intervento umano.

Gli esempi forniti alla IA durante la fase di training altro non sono che una rappresentazione, una “mappa” della realtà, spesso mediata da interpretazioni umane (fase di labeling) o da sensori che trasformano grandezze reali (temperature, colori, spazi) in informazioni elaborabili (numeri) che saranno inevitabilmente approssimazioni (non è possibile, ad esempio, memorizzare numeri irrazionali o periodici, ma solo loro approssimazioni).
Ora, una mappa, per definizione, è una rappresentazione semplificata della realtà. Se non lo fosse, perderebbe la sua utilità.
Pensate ad una mappa geografica: semplifica (di tantissimo) la superficie terrestre di un luogo, riportando solo le caratteristiche ritenute necessarie ad orientarsi e localizzare punti particolari (vie, edifici, monti, fiumi, eccetera). Se per assurdo potessimo arricchire questa mappa sempre più fino a renderla “identicamente uguale” alla realtà stessa, significherebbe che in tasca dovremmo portarci dietro l’intera superficie di quel luogo, comprensivo di edifici, monti, laghi, fiumi, persone, foglie che cadono e via discorrendo, rendendo del tutto inutilizzabile quella mappa.

Quindi, se gli esempi per la IA sono mappe, cioè semplificazioni o riduzioni della realtà, allora significa che la IA non vedrà mai la realtà nella sua interezza.
Il famoso matematico, fisico ed astronomo Laplace teorizzava che qualora un ipotetico “demone” conoscesse la posizione di tutte le particelle dell’universo in un dato istante, tale demone sarebbe capace di conoscere il passato, il presente ed il futuro (ho semplificato molto).
Ciò significa che, a prescindere da quanto possa essere ampio e dettagliato il dataset di training di un sistema di IA, questo sarà sempre una rappresentazione parziale della realtà e quindi il sistema non potrà mai avere un margine di errore nullo.

A questo si aggiunga anche che non solo l’IA viene istruita su una semplificazione della realtà, ma che è essa stessa una forte semplificazione della immensa ed intricatissima rete neurale umana.

Si intuisce quindi quali possano essere le limitazioni delle IA attuali: sono bravissime in particolari ambiti ben delimitati, ma appena si va un po’ “borderline” il loro comportamento può risultare (e quasi sempre lo è) imprevedibile.
I sistemi basati su IA devono quindi essere utilizzati in modo regolato e normato per evitare o minimizzare tutta una serie di rischi, i principali dei quali possiamo riassumerli nei seguenti temi:

  • Privacy: è necessario evitare che tutto l’enorme flusso di dati elaborato da questi sistemi possa essere intercettato ed utilizzato in modo fraudolento per evitare di ledere o compromettere la nostra sfera privata. Servono quindi regole di tutela per evitare divulgazioni non autorizzate e far sì che i dati vengano utilizzati solo ed esclusivamente per scopi precisi, chiari e resi noti anche al proprietario di queste informazioni.
  • Neutralità: in generale le scelte e le azioni fatte da una IA non devono essere deviate dalla appartenenza ad etnie, religioni, sesso, o altri fattori se questi non hanno nulla a che fare con la scelta da intraprendere. Ad esempio, mentre ha senso che per un sistema medico l’appartenenza ad una etnia o ad un genere o tendenza sessuale possa influenzare la risposta, in quanto una patologia può avere maggiore incidenza su queste tipologie di persone, un riconoscitore facciale deve poter funzionare alla stessa maniera sia per le persone di pelle chiara che per quelle di pelle scura, sia per le donne che per gli uomini, sia per i biondi con gli occhi azzuri che per i mori con gli occhi castani che per i calvi e così via.
    Purtroppo però sono noti i casi di alcuni riconoscitori (anche di aziende famose) che in passato hanno scambiato persone dai tratti somatici afroamericani per gorilla.
    Alla luce di questo, cosa potrebbe accadere se un ipotetico “giudice elettronico” si convincesse, sulla base dei dati storici in suo possesso evidentemente parziali e non equilibrati, che tutte le persone il cui nome inizia per “A” hanno la certezza di reiterare un crimine entro qualche mese dal loro rilascio dalla prigione? Probabilmente le prigioni si riempirebbero di “Andrea”, “Alessandro”, “Antonio”, eccetera.
  • Responsabilità: abbiamo detto che esistono sistemi che decidono in autonomia anche azioni di rilevanza pubblica. In particolare per questi è necessaria un continuo monitoraggio e valutazione per determinare se il loro comportamento devia o resta coerente ed in caso eseguire le necessarie azioni per ristabilire il funzionamento corretto. Inoltre è necessario stabilire su chi ricade la responsabilità (civile e/o penale) in caso di danni provocati da questi sistemi.
    Ad esempio, se un’auto a guida autonoma provoca un danno, su chi ricade la colpa? Di certo non si potrà arrestare o giudicare il sistema di guida. È quindi chiaro che l’uomo deve poter ancora avere l’ultima parola e la propria responsabilità non può essere trasferita ad un sistema di IA.
  • Sicurezza: le azioni di un sistema di IA non possono ledere la sicurezza delle persone. Un concetto espresso magnificamente dalle famose Tre leggi della robotica di Isaac Asimov

1. Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.

2. Un robot deve obbedire agli ordini impartiti dagli essere umani, purché tali ordini non contravvengano alla Prima Legge.

3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.

Bene, ma cosa si sta facendo in ambito legislativo per regolarizzare l’uso di questi sistemi?
Diciamo che, come spesso accade, la tecnologia è arrivata molto prima del legislatore, che però sta cercando di organizzarsi e riguadagnare terreno.
In Italia è stata istituita, da parte dell’Agenzia per l’Italia Digitale, una Task Force sull’Intelligenza Artificiale, la quale ha pubblicato come prima cosa il Libro Bianco che

si prefigge di analizzare l’impatto dell’Intelligenza Artificiale nella nostra società e, più nello specifico, nella Pubblica Amministrazione.
L’obiettivo è facilitare l’adozione di queste tecnologie da parte dello Stato, per migliorare i servizi ai cittadini e alle imprese, dando così un impulso decisivo all’innovazione, al buon funzionamento dell’economia e, più in generale, al progresso della vita quotidiana.

Nel libro sono elencate diverse “sfide” per chi svilupperà sistemi di IA per le Pubbliche Amministrazioni. L’intento di queste sfide è dare delle regole, delle best practices da seguire per sviluppare e mantenere dei servizi utili, neutri e sostenibili.
Si tratta solo di un primo passo nel dibattito sulla IA e si limita, al momento, solo al suo utilizzo nell’ambito delle PA per i servizi al cittadino, senza entrare nel merito dell’uso nel privato (nelle imprese, nelle industrie, eccetera).
Quindi il percorso di regolamentazione è ancora lungo e prenderà forma man mano che si affronteranno eventuali problematiche.

Anche in altre nazioni ci sono dibattiti e discussioni aperte sulla IA: alcune sono più avanti nel processo di legiferazione, altre meno, ma in ogni caso appare evidente che prima o poi questi sistemi evolveranno fino a livelli potenzialmente pericolosi se non opportunamente regolamentati e controllati.
Il rischio concreto è di arrivare alla cosiddetta singolarità tecnologica, un punto temporale nello sviluppo di una civiltà in cui il progresso tecnologico accelera oltre la capacità di comprendere e di prevedere (e quindi di controllare) della civiltà stessa. Un’ipotesi che alcuni credono si verificherà nella prima metà di questo secolo, come spiega Raymond Kurzweil, pioniere dei sistemi “OCR” e “text-to-speech” nel suo saggio “La singolarità è vicina“.

Se questa sia un’ipotesi attendibile o meno, non possiamo saperlo, ma una cosa è certa: “prevenire è meglio che curare” quindi bene fanno i governi a preoccuparsi e a pensare a possibili soluzioni.

Finito questo excursus filosofeggiante, nei prossimi articoli entreremo più nel dettaglio dei principali strumenti di Intelligenza Artficiale, con anche esempi di codice sorgente e dataset di dominio pubblico.

Link di approfondimento

https://ia.italia.it
https://it.wikipedia.org/wiki/Singolarit%C3%A0_tecnologica
http://moralmachine.mit.edu/
https://www.bbs.unibo.it/hp/la-moralita-di-unintelligenza-artificiale/

Cristiano Casadei: Lavoro in Maggioli dal ’96 e ho contribuito a diversi prodotti dell’Azienda: da Concilia a TradeWin, ai prodotti per i Demografici. Dal 2016 entro a far parte a tempo pieno del team dei Progetti Speciali, ora R&D. In questo team ho contribuito allo sviluppo di Revisal, Scacco2 e ora mi occupo di studiare e sperimentare soluzioni che fanno uso di Intelligenza Artificiale. Come si può intuire dalla foto, amo la montagna.
Related Post