INTELLIGENZA ARTIFICIALE – MACCHINE SEMPRE PIÙ EVOLUTE SANNO COSA FACCIAMO, PENSIAMO E COME CI SENTIAMO, FORSE MEGLIO DEI NOSTRI AMICI E FAMILIARI O PERSINO DI NOI STESSI. E LE SOLUZIONI CHE CI PROPONGONO CI PAIONO NOSTRE

di Mario Rasetti Fondazione Isi – Torino; Isi Global Science Foundation – New York

Siamo nel mezzo di una rivoluzione che non ha precedenti, la rivoluzione digitale: i Big Data e l’Intelligenza Artificiale. Rivoluzione in parte culturale (ma i bit faranno molto più di quanto i caratteri mobili di Gutenberg abbiano fatto in 565 anni, in termini di spostamento degli equilibri del potere, di accesso alla conoscenza e del suo trasferimento dalle mani di pochi a comunità sempre più larghe) e in parte industriale (ma il cambiamento di paradigma, più forte di quello dovuto alla macchina a vapore di Watt, modificherà la struttura profonda delle relazioni umane e sociali: lavoro, interazioni tra uomo, natura e i suoi stessi artefatti), essa condivide speranze e rischi di entrambe.

Una rivoluzione che sta rendendo la nostra vita sempre più dipendente da grandi masse di dati. Fra meno di tre anni il tempo di raddoppio, tempo in cui gli abitanti del pianeta generano una quantità di dati uguale a quella prodotta in tutta la loro storia fino a quel momento, sarà passato, grazie ai 150 miliardi di nuovi dispositivi in Rete, da circa un anno di oggi a 12 ore. Una quantità di dati che nel 2019 è stata di 5mila miliardi di gigabyte!

L’intelligenza artificiale (AI) è lo strumento per estrarre, da questa enorme massa di dati, informazione e conoscenza, facendone un ingrediente potente, prezioso e cruciale dei processi decisionali. Essa mira a decodificare il codice dell’intelligenza umana nella sua capacità di imparare e auto-addestrarsi, e sta facendo progressi mozzafiato. La nostra vita ne sarà profondamente modificata e, data la prevedibile futura pervasività dell’AI nella società, è legittimo e necessario chiedersi come questa nuova tecnologia debba essere modellata per aiutarci a conservare i nostri valori e in particolare a rafforzare la democrazia costituzionale.

La concentrazione di potenza digitale oggi è una minaccia potenziale per la democrazia e per i mercati. L’esperienza di un’Internet senza leggi e il fragile rapporto tra tecnologia e legge sollevano entrambi la stessa domanda chiave sul ruolo del digitale nella democrazia: quali, fra le sfide che l’AI ci lancia, possono essere lasciate nel campo esclusivo dell’etica e quali devono essere invece affrontate con regole operative efficienti, che includano in modo comprensivo tutta la legittimità del processo democratico? È indispensabile una nuova cultura che incorpori nella progettazione stessa dell’AI principi etici, fra cui democrazia, Stato di diritto e diritti umani; i tre pilastri portanti delle costituzioni liberali occidentali. Per questo ci si deve chiedere come questa nuova tecnologia (che chiamiamo ‘intelligenza’ artificiale solo per ricordare quell’irraggiungibile modello che è il cervello umano, la cui intelligenza è capace di cose che nessuna macchina saprà mai fare), debba essere disegnata per garantirci la sopravvivenza e il rafforzamento di quella triade di valori portanti delle funzioni fondamentali della società: dall’educazione a salute, scienza e business, fino ai più astratti diritto, sicurezza e anche discorso politico e processi decisionali democratici.

Tra gli scienziati non c’è una definizione concordata di AI; si può rozzamente pensarla come una generica tecnologia software che abbia almeno una di queste capacità: percezione, processi decisionali, previsione, estrazione automatica della conoscenza dai pattern di correlazione dei dati, comunicazione interattiva, ragionamento logico (questo include il Machine Learning).

(…) La società controllata dai dati è già lì: programmi concepiti per proteggere i cittadini dal terrorismo, hanno finito per influenzare la politica economica e dell’immigrazione, il mercato immobiliare e persino i programmi scolastici. Algoritmi di deep learning applicati alle reti sociali sono già stati utilizzati per esercitare controllo sociale: ogni cittadino cinese riceverà un ‘punteggio del cittadino’, che determinerà a quali condizioni può ottenere prestiti, lavoro o visti di viaggio in altri Paesi; il monitoraggio individuale ha portato a esperimenti online su prezzi personalizzati; Amazon ha brevettato un software che gli consente di consegnare i prodotti una piccola frazione di tempo prima che i clienti li ordinino. Il Grande Fratello Orwelliano è realtà: cittadini programmati in una società programmata; oggi, gli algoritmi sanno bene che cosa facciamo, cosa pensiamo e come ci sentiamo, forse meglio dei nostri amici e familiari o persino di noi stessi. E le soluzioni che ci sono proposte si adattano così bene che le decisioni che ne risultano ci paiono nostre, anche se in realtà non lo sono.

I nostri valori: libero pensiero, libertà di scelta, democrazia sono dunque stati violati? Il punto vero è altrove: supponiamo di avere una macchina super-intelligente con conoscenze e capacità sovrumane; seguiremmo le sue istruzioni? È chiaro che i problemi del mondo non sono diminuiti, nonostante lo tsunami di dati e l’uso d’informazioni personalizzate; anzi! La pace del mondo è fragile; i cambiamenti climatici a lungo termine porteranno probabilmente alla più grande perdita di specie (incluso l’uomo) dall’estinzione dei dinosauri; siamo lontani dall’aver superato la crisi finanziaria e il suo impatto sull’economia; si stima che la criminalità informatica provochi una perdita annuale di 3 trilioni di dollari; Stati e terroristi si stanno preparando per la guerra informatica.

In un mondo in così rapido cambiamento, anche una super-intelligenza non può prendere decisioni perfette: il fatto è che la complessità sistemica (entropia) aumenta più velocemente del volume di dati, che a sua volta cresce più rapidamente della nostra capacità di elaborarli e trasferirli (costi energetici). La manipolazione dei processi decisionali della democrazia con algoritmi, per quanto potenti e raffinati, mina la possibilità dell’emergente ‘intelligenza collettiva’, che sola può adattarsi in modo flessibile alle sfide di questo mondo complesso. Affinché essa funzioni, ricerca d’informazioni e processi decisionali devono però avvenire in modo indipendente. Giudizi e decisioni predeterminati da algoritmi non porterebbero a null’altro che un lavaggio del cervello collettivo!

(…) Siamo a un bivio. Big data, AI, cibernetica ed economia comportamentale stanno plasmando la nostra società, nel bene e nel male. Se tali tecnologie diffuse non saranno rese compatibili con i valori fondamentali della nostra società, causeranno danni ingenti; come una società automatizzata con caratteristiche totalitarie, con un’intelligenza artificiale centralizzata che controlla che cosa sappiamo, ciò che pensiamo e come agiamo.

Se li adattiamo ai nostri valori, i frutti della rivoluzione digitale possono beneficiare l’economia, il governo, i cittadini. Che cosa stiamo aspettando?

 

© 2020 Editoriale il Fatto S.p.A. C.F. e P.IVA 10460121006

https://www.ilfattoquotidiano.it/in-edicola/articoli/2020/05/23/come-educare-lalgoritmo/5811129/

0 commenti

Lascia un Commento

Vuoi partecipare alla discussione?
Fornisci il tuo contributo!

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *