Nello Cristianini, docente di Intelligenza Artificiale all’Università di Bath, si occupa di vari ambiti di ricerca: la teoria statistica, la comprensione del linguaggio naturale, l’analisi dei contenuti dei social media e gli effetti su etica e società comportati dalle tecnologie artificiali.

Nello Cristianini

Lo scorso 23 novembre, presso la biblioteca delle Oblate di Firenze, nell’evento organizzato dall’associazione culturale Ideerranti, ha presentato il suo ultimo libro La scorciatoia. Come le macchine sono diventate intelligenti senza pensare in modo umano (il Mulino, 2023); ha spiegato le questioni evidenziate dal relatore Salvatore Ruggieri, professore ordinario presso il Dipartimento di Informatica dell’Università di Pisa, voce autorevole a livello nazionale e internazionale che, in oltre 70 pubblicazioni, si occupa di sicurezza informatica e contrasto alle discriminazioni originate da un uso inappropriato delle tecnologie odierne. Moderatore, anche partecipe delle riflessioni proposte, è stato Roberto Rinaldi, ex-economista in Banca d’Italia, dove ha ricoperto ruoli di spicco nell’ambito della Ricerca economica e della Vigilanza.

Si parte da una semplice constatazione: l’Intelligenza Artificiale segna inevitabilmente la nostra vita. Ma cosa è l’intelligenza? Una capacità collegata all’emotività, alla comprensione secondo certi formalismi delle leggi che governano la natura? L’autore ne dà una definizione non circoscritta all’antropocentrismo, come spesso è nel nostro immaginario, ma che si estende a tutto il vivente e alle nostre creature metalliche, in quanto capaci di reagire in modo sensato di fronte a situazioni mai viste prima. La definizione si presta anche alle macchine perché, senza conformarsi alla nostra forma mentis fortemente basata sulla causalità, si servono della statistica, di quantità mostruose di dati per constatare e prevedere svariati fenomeni. Ed è interessante vedere come tale diversità di ragionamento abbia causato perplessità, scetticismo e pregiudizi, consci della tipica difficoltà che affrontiamo nel discernere il luogo comune, la paura del diverso dalla verità. Ma di atteggiamenti discriminatori le stesse tecnologie intelligenti possono essere imbevute, visto che la loro conoscenza si basa sui dati forniti dai loro creatori e utenti umani, spesso discriminanti. Ciò costituisce un pericolo, fra i tanti derivanti dalla fiducia che dovremmo avere nel delegare alle tecnologie intelligenti decisioni che incidono sulla vita umana più o meno significativamente: vagliano curricula, evidenziano certe notizie invece di altre in base all’ambito di interesse captato dall’utente attraverso i suoi click … come essere sicuri che la macchina rispetti la Prima Legge della Robotica di Asimov, per cui nessun robot può danneggiare un essere umano? Come è possibile se le macchine invece del buon senso, possiedono dati da processare e affidare a mani spesso sconosciute, e visto che, nel nostro mondo, fatta una legge, trovato l’inganno? Come impedire che le macchine facilitino una divisione sempre più radicale della società, pregiudizievole verso chi non risulta conforme a determinati canoni per estrazione sociale, etnia, opinioni … ? È questo il campo di ricerca che ci racconta il professor Cristianini, descrivendo nel suo libro il carattere multidisciplinare di tale ambito: esso si ripercuote anche sulla sfera psicologica, tanto che nei giovani, generalmente più vulnerabili, a partire dal 2014, ovvero da un’impressionante diffusione dei social media, si è riscontrato un preoccupante aumento di malessere emotivo, sconfinante nell’autolesionismo e nella dipendenza. Dipendenza a livello emotivo, ma anche dello svolgimento di mansioni che erano prima attuate in autonomia da esseri umani, ora rammolliti dalla comoda quanto debilitante sicurezza che “ci penserà ChatGPT”! Questo infatti è un recente esempio di dispositivo creativo, che quindi mette in crisi il valore dell’Arte umana: essa ormai convive, se non compete, con l’Intelligenza Artificiale – si pensi a Edmond de Belamy (2018), la prima (e non ultima) opera creata da un algoritmo, progettato da ricercatori e artisti del collettivo francese Obvious.

Edmond de Belamy

Tali questioni scuotono inevitabilmente le coscienze e la comune concezione della vita, uniscono (ed è auspicabile che uniscano) le persone nel tentativo di prevenirne e contrastarne gli effetti collaterali. Durante l’evento sono infatti state numerose le osservazioni, le domande convergenti nell’indagine su questa realtà; ad essa del resto si può attribuire la responsabilità di una cospicua agevolazione delle condizioni di vita, ma anche di illusione di autosufficienza e ripiegamento su se stessi, armi che ledono all’individuo quanto alla collettività, rendendoli più facili prede di manipolazione.

Ma si lasci ora la parola all’autore, che ci ha gentilmente concesso la seguente intervista, oltre che attualissimi spunti per riflettere e contribuire a un miglioramento collettivo.

Perché ha deciso di scrivere questo libro?

«Qualche anno fa mi sono reso conto che tutte le grandi sfide poste dall’Intelligenza Artificiale si trovano

nei territori di confine tra discipline diverse, come la psicologia, la giurisprudenza, l’informatica, e

l’economia. Ciascuna di quelle scienze è necessaria per aiutarci a capire come convivere con le macchine

intelligenti, e gli effetti di quella convivenza, ma usa un linguaggio diverso, cosicché la collaborazione è

difficile. Ho pensato di riassumere i fatti importanti in una lingua semplice, che tutti possano capire.»

Quali messaggi ha intenzione di trasmettere e a quale pubblico attraverso il libro?

«Le macchine possono comprendere il mondo, sia pure a modo loro e ben diverso dal nostro, e noi

dobbiamo regolarci di conseguenza. Dobbiamo cominciare a pensare a leggi, letture scolastiche, che ci

aiutino a convivere con la tecnologia che abbiamo creato. Si può fare, e c’è bisogno dell’aiuto di tutti. Il

pubblico ideale sono tutti i cittadini, particolarmente i giovani, che dovranno convivere con gli effetti delle

nostre decisioni, e che però saranno anche quelli che probabilmente rimedieranno ai nostri errori. Ho

completa fiducia in loro.»

Nel titolo intende che le macchine sono diventate intelligenti senza pensare in modo umano, ma

attraverso la “scorciatoia”, ovvero la statistica, l’analisi di dati quantitativamente inimmaginabili,

l’osservazione dell’utente. Ciò esclude a suo avviso che un domani le macchine possano arrivare a

pensare o sentire in modo umano, ad esempio percependo emozioni?

«Non c’è ragione di aspettarci che una macchina abbia bisogno di provare emozioni, ma è possibile che sia utile simularle per poter interagire meglio con noi, e comprenderle, per poter prevedere meglio il nostro comportamento. L’emozione è una parte centrale della mente umana, ma non penso che sia necessaria per ogni forma di intelligenza.»

Quali problemi sul piano etico pone lo sviluppo dell’Intelligenza Artificiale e come li possiamo

fronteggiare?

«Il fatto importante è che abbiamo già collocato molti algoritmi intelligenti in posizioni centrali nella

nostra infrastruttura digitale, e da qui possono osservarci e prendere decisioni che hanno conseguenze per noi. Quindi ci troviamo a chiederci se queste decisioni possono essere eticamente accettabili. Come

facciamo a fidarci di un software che seleziona i candidati per un posto di lavoro, concede mutui, e così

via? Sono queste le domande pratiche che ci troviamo ad affrontare.»

Quali sono i punti deboli e di forza che l’Intelligenza Artificiale ha evidenziato in noi, nella nostra

quotidianità di consumatori e esseri emotivi, e come realizzare in virtù di tali aspetti una migliore

convivenza tra macchine e esseri umani?

«Un altro fatto è che il modello di business principale dell’intelligenza artificiale oggi è la pubblicità,

ovvero una forma di persuasione, e questo avrebbe sorpreso i pionieri di questo campo scientifico. »

Se è appropriato affermare che la tecnologia divide la società, quali differenze principali si presentano

nei rischi e nell’uso delle macchine sui vari fronti (ad esempio giovani e adulti, poche ed egemoni

multinazionali e poveri)?

«È una domanda interessante ma non sono un esperto in questi aspetti.»

Quali sono le nuove e più significative tendenze nell’ambito dell’Intelligenza Artificiale? Più nello specifico, quali gli ambiti su cui si sta lavorando per arginare gli effetti negativi della disciplina, per garantire privacy e sicurezza all’utente?

«Vedo due domande diverse. Una tendenza nuova ed importante è quella dei “modelli di linguaggio” come GPT che consentono di creare agenti come ChatGPT con un nuovo livello di comprensione e prestazioni. Al contempo, molti gruppi di ricerca misti, per esempio con informatici e giuristi, si stanno formando per studiare gli effetti dell’IA su privacy e sicurezza. »

Ha parlato della forte connessione tra società e Intelligenza Artificiale, in termini che toccano anche la

psicologia, ad esempio riguardo al crescente autolesionismo tra i giovani, attraverso la pressione che

esercitano i modelli sui social.

È a suo giudizio ricollegabile anche il clima odierno di arroganza e violenza a un meccanismo che, una

volta avviato, si nutre da solo? Insomma è possibile che si giustifichino e incoraggino anche tramite

modelli imposti dal web, dalla “gerarchia dei like”, comportamenti gretti e allarmanti nelle persone?

«Molti psicologi riportano che c’è un aumento di problemi emotivi, inclusi casi di autolesionismo, tra gli

adolescenti, e questi sono chiaramente tra i principali utenti dei social media e indirettamente dell’IA. Altri

studiosi sospettano che ci possa essere un effetto di polarizzazione e radicalizzazione, in alcuni casi. Ma non è stato provato alcun collegamento diretto, anche se alcuni psicologi stanno studiando le possibili

connessioni. In altre parole, ancora non sappiamo se ci sia un effetto. Però è giusto preoccuparsene,

studiare, investigare, perché solamente comprendendo bene come l’IA potrebbe influenzarci, riusciremo a

trovare il modo giusto di regolamentarla e di conviverci. Personalmente uso i social poco e

malvolentieri.»

0 0 votes
Article Rating