Circola una notizia sorprendente, per non dire inquietante: è possibile prevedere la speranza di vita e l’evoluzione delle interazioni sociali di un individuo, come descritto nella rivista scientifica Nature Computational Science. È il risultato di un gruppo di ricercatori di Sune Lehmann, Università Tecnica della Danimarca, che ha realizzato un avanzato algoritmo (sequenza di calcoli, impostata nelle macchine per ottenere un output, dal trovare informazioni su Internet, a far funzionare macchinari). L’originalità del modello, life2vec, sta, più che nelle sue strutture, nell’ambito di applicazione di queste, di solito “limitate” ad analisi, uso e traduzione del linguaggio naturale. Esso sfrutta il “metodo di Trasformazione”, un modello di apprendimento automatico rivoluzionario nel mondo dell’Intelligenza Artificiale, con la funzione di “dialogare” con l’essere umano attraverso il linguaggio naturale; ciò avviene non più considerando informazioni isolate, ma testi in cui ogni parola viene interpretata contestualmente, quindi con maggiore esattezza, sebbene alle macchine manchi la comprensione del senso delle frasi. Esse sono capaci anche di rispondere a svariate domande, meccanismo sul quale si basa ad esempio il recente GPT-4.

L’algoritmo danese formula previsioni dettagliate in base alle analogie strutturali nell’esistenza umana, considerandone vari parametri come reddito, ceto di appartenenza, zona di residenza. Si può così studiare il comportamento umano, ottenendo rappresentazioni vettoriali, schematiche, della vita futura di qualcuno. Potrebbe d’altra parte sembrare demistificatorio, se non avvilente, vedere la vita stilizzata come una sequenza di eventi dettata dal rapporto di causa-effetto, interpretabili da una macchina.

L’algoritmo risulta tuttavia attendibile grazie all’addestramento, ovvero all’esecuzione delle sue prerogative, ripetuta su sei milioni di danesi in diverse condizioni socioeconomiche, di salute, dimora. Condizioni considerate alla stregua di parole del linguaggio naturale, come cioè dati da analizzare e mettere in relazione. Gli individui osservati hanno così ricevuto informazioni circa l’aspettativa di vita, ma anche circa l’evoluzione dei propri rapporti interpersonali, come la durata di una relazione sentimentale!

La sua potenza consiste insomma nel poter analizzare massive quantità di dati, rilevandone schemi ripetuti su cui basare le previsioni.

Le questioni etiche di tale innovazione, oltre a quelle tipicamente poste dall’Intelligenza Artificiale, riguardano la novità della funzione di “pronostico”.

Come assicurarsi che il meccanismo, venendo a conoscenza di informazioni sensibili dell’utente, inerenti ad esempio le proprie convinzioni politiche, morali, l’appartenenza etnica, socioeconomica, non le inoltri alle mani sbagliate, generando discriminazioni in base ad esse?

Inoltre, non si sono ancora definiti l’ambito e l’insieme di dati più sicuri per l’applicazione dell’algoritmo, che dipende del resto anche dall’affidabilità che dimostrerà in futuro e da giudizi giuridici precedenti alla sua diffusione: può diventare un oggetto di intrattenimento personalizzato, per lo sfogo della curiosità? Oppure un supporto alla pianificazione del proprio futuro? Il ricercatore italiano Andrea Bertolini ipotizza applicazioni a livello socioeconomico, ad esempio sul calcolo della spesa pensionistica e dei tempi di scadenza dell’usufrutto, della validità di un acquisto in nuda proprietà.

Le ricadute pratiche nell’atteggiamento di chi si affidasse al pronostico di un tale macchinario potrebbero dunque essere, oltre a un’”utile” consapevolezza, ad esempio disorientamento, se il tempo rimanente previsto fosse poco; tutto il senso fino a allora conferito alla propria vita potrebbe collassare, una domanda perentoria farsi strada: “Come spendere questi ultimi istanti?”… Di certo non attivando assicurazioni pensionistiche, e passi se sono poche persone a agire così, ma se fossero tante a reagire nello stesso modo davanti alla deprecabile previsione? Certo non sarebbe favorevole agli assicuratori del settore. Nel caso contrario, di un’auspicabile previsione, potrebbe invece subentrare l’astuzia: perché non vendere il più esosamente possibile in nuda proprietà? Ciò significherebbe vendere al “nudo proprietario” la proprietà, in genere di una casa, mantenendo il diritto di usufrutto e attribuendo l’onere delle spese strutturali e straordinarie all’acquirente, fino alla scadenza di tale usufrutto, generalmente coincidente con la morte dell’usufruttuario; bisogna però riconoscere che tutto ciò avrebbe vantaggi anche per l’acquirente, specie se è dotato di lungimiranza e “pazienza”: ad esempio, ci sarebbero prezzo minore rispetto a quello di un normale acquisto ed esenzione fiscale durante l’usufrutto dell’ex-proprietario.

Ma che ne sarebbe del “cogli l’attimo fuggente”, inequivocabile nel Carpe diem oraziano? Del suo monito circa l’impossibilità umana di sapere quanta vita ci aspetta, e della bontà di essa, se aiuta a vivere il momento, capirne la preziosità, senza lasciarci assillare dalle preoccupazioni di un futuro inconoscibile? Futuro che si raggiunge passo dopo passo, senza proiettare le speranze terrene tanto lontano.

Tutto ciò esemplifica quanto l’Intelligenza Artificiale stia estendendo il suo campo d’azione in svariati ambiti, come la comunicazione scritta e vocale, le arti figurative, la musica, in cui sembra competere in creatività con l’essere umano, paradossalmente e nonostante i progettisti di tali meccanismi rivendichino il ruolo di artisti. Essa è presente in robot umanoidi, applicazioni sul cellulare, assistenti vocali, videogiochi, imminenti auto a guida autonoma, persino nel mondo finanziario, nel monitoraggio dell’oscillazione della Borsa e nel credit score, per cui si valuta quanto un utente sia affidabile per un prestito in base all’osservazione di risparmio, reddito… La vita sta insomma diventando sempre più inscindibile da questo tipo di tecnologia – che in senso lato è l’applicazione della conoscenza per scopi pratici, ma che nel nostro caso può procedere autonomamente a partire da un input, potenzialmente carpendo e diffondendo informazioni persino sulla sfera sentimentale, calpestando i diritti dell’individuo nel momento in cui tale diffusione può causarne la violazione dell’intimità e la discriminazione; ciò significherebbe scoperchiare la pentola del nostro ribollio interiore, castrandolo magari, mostrandogli una modellizzazione dalla validità scientifica del suo sviluppo… Indispettendolo, frustrandolo! Facendoci sentire ingranaggi prevedibili e noiosi, irrimediabilmente determinati dalle proprie peculiarità. Mera figlia, o schiava, della propria particolarità, la persona sarebbe così banalizzata e svalorizzata. Potrebbe anche insensatamente, ma in fondo piacevolmente abbandonarsi a un flusso di istinti, più o meno prepotenti, senza riflettere sulle conseguenze delle azioni proprie e altrui. Farsi più meschina e manipolabile, incasellata, come vogliono celebri distopie. Ci si potrebbe percepire dadi gettati sulla terra, privi di senso e responsabilità, ipotizzando macchine che designano già lo svolgimento della personale esistenza. Insomma a che servirebbe illudersi di prendere decisioni sulla propria vita, se è tutto già schematizzato da una macchina, se la nuova “divinità” è interattiva, scientificamente affidabile?

Sarà allora più autentico, non solo psicologicamente terroristico, il dubbio che non sia più tanto l’umanità a fornire gli strumenti all’Intelligenza Artificiale per studiarsi e supportarsi, ma che le macchine intelligenti suggeriscano alle persone uno schema da seguire per essere tali, più o meno subdolamente. Con dietro un manipolatore interessato, o meno. D’altronde si sono verificati episodi allarmanti in cui una macchina capace di interagire con le persone ha formulato sentenze fuorvianti; si ricordi ad esempio il tragico caso del marzo scorso di un belga suicida: disperato circa la capacità umana di risolvere l’emergenza ambientale, ha riposto le sue speranze in un chatbot (Eliza dell’app Chai, un software capace di comunicare con linguaggio naturale); esso, alimentando le sue ansie, non lo ha dissuaso dal progetto malato di sacrificarsi perché si potesse salvare il mondo. L’evento è in netto contrasto con la Prima Legge della Robotica di Asimov (del 1942), per cui un robot non deve danneggiare o lasciare che si danneggi un essere umano. I responsabili del prodotto hanno cercato di ovviare al ripetersi di un simile orrore implementando ulteriori impostazioni per la sicurezza, ma il software rimane essenzialmente incontrollabile in tal senso. Nelle mani sbagliate, di una persona fragile e sola, o malintenzionata, l’IA (Intelligenza Artificiale) è quindi pericolosa. Può isolare, quindi indebolire nella confortante illusione di non rimanere soli interagendoci, a maggior ragione, i più ingenui bambini abbandonatici.

Ciò va ricordato, non tanto per condannare uno strumento che può essere utile ad apprendere, comunicare con chi è lontano, ampliare le capacità di soccorso, ma per limitare, idealmente estirpando, gli usi deleteri che se ne possono fare, la dipendenza digitale che in fondo, in genere ci accomuna.

Ma potrebbe essere interessante definire questa sempre più onnipresente (quasi onnipotente) IA e la sua impressionante evoluzione, senza scivolare nel particolarismo.

È una branca dell’informatica dalla specifica prerogativa di creare macchine con capacità prima attribuibili solo all’essere umano o comunque animale, come risolvere problemi inediti, prendere decisioni sulla vita dei pazienti, capire lo spazio circostante e il meccanismo, ancora non il senso, delle interazioni sociali. Tutto ciò, che potrebbe ispirare, entro certi limiti, una sana diffidenza, si realizza applicando il semplice principio dello “sbagliando (svariate volte) si impara”, detto in gergo machine learning. Infatti le macchine intelligenti vengono “addestrate”, attraverso le reti neurali, algoritmi analoghi ai nostri neuroni per la trasmissione di informazioni e comandi.

Le sue origini risalgono principalmente all’attività, tra gli anni ’40 e ’50 del Novecento, del matematico Alan Turing. Egli teorizzò per primo come una macchina potesse “pensare”. Fu però nel ’56 a essere coniato il termine Intelligenza Artificiale, alla conferenza di Dartmouth, che segnò la nascita vera e propria del campo di ricerca. Nel ’61 il primo robot industriale, Ultimate, fu adottato in una fabbrica statunitense e nel ’65 il programma Eliza poteva già “dialogare” in inglese, similmente all’attuale ChatGPT. Il tutto alimentò il fermento fantascientifico nei decenni, in vari film ad esempio, e fece scalpore con Deep Blue, macchina che nel ‘97 ha battuto l’allora campione mondiale di scacchi, mettendo ulteriormente in crisi il senso dell’essenza umana.

Tra i vantaggi che questa complessa disciplina offre, c’è la capacità di prevenire e rilevare frodi, a volte tuttavia generate dalla stessa macchina. Velocità e accuratezza dei risultati, umanamente inarrivabili e basate su quantità altrettanto inimmaginabili di dati, sono comunque d’aiuto per acquisire strumenti di miglioramento dal punto di vista economico, sanitario, della sicurezza…

Dall’altro lato della medaglia, le questioni più preoccupanti in materia sono, oltre a quelle etiche, ad esempio lo sviluppo di una “super” macchina intelligente, così superiore alle capacità cognitive umane da risultare astrusa, non capace di soccorrere le esigenze umane, anche emotive, ma magari di collassare l’umanità per perseguire gli obiettivi preposti, senza seguire cioè le tre fondamentali Leggi della Robotica di Asimov. Il danno per la perdita di controllo potrebbe esserci anche in sfruttamento e protezione delle risorse naturali affidati alle macchine. Ciò è reso più sconfortante dalla spesso cieca e rapida concorrenza di mercato che c’è dietro.

Servono quindi regolamentazioni e sanzioni adatte. Una risposta pertinente sembra provenire dall’approvazione, avvenuta lo scorso 9 dicembre nelle istituzioni dell’Unione europea, dell’Ai Act, il primo regolamento di questa portata che verrà applicato su ogni sistema di IA in uso o in realizzazione nell’Unione europea, a partire dal primo gennaio 2026. I principi che lo guidano sono sicurezza, trasparenza dei processi e dei dati adottati, la possibilità umana di recuperare il comando nel caso la situazione diventi incontrollata, in contrasto ai possibili rischi, specie quelli di alto livello, che ledono la sicurezza informatica, fisica e mentale delle persone. I rischi sono infatti categorizzati in base alla gravità, all’apice della quale troviamo il rischio di manipolazione, discriminazione in base ai dati, e di sorveglianza, non escludibile dal funzionamento dell’algoritmo danese da cui si è partiti.

Bibliografia e sitografia :

Nello Cristianini, La scorciatoia. Come le macchine sono diventate intelligenti senza pensare in modo umano, il Mulino, 2023

https://www.ansa.it/canale_scienza/notizie/frontiere/2023/12/28/lia-puo-prevedere-il-destino-degli-individui-_58fa9584-e383-4847-8410-98e36d551693.html

https://it.euronews.com/next/2023/04/01/discussione-sul-clima-chatbot-spinge-un-uomo-al-suicidio-intelligenza-artificiale-fa-paura

https://www.ai4business.it/intelligenza-artificiale/transformer-cosa-sono-e-come-stanno-rivoluzionando-lai/

0 0 votes
Article Rating