INTELLIGENZA ARTIFICIALE:  Opportunità, limiti e rischi 

, , ,

 

 

Nel 1943 un gruppo di scienziati in Europa e negli USA inizia a lavorare su un nuovo ambito  di ricerca utilizzando idee e risultati ottenuti in vari ambiti di scienze teoriche e applicate con  l’obiettivo di costruire macchine o programmi che tendono a imitare le capacità cognitive  dell’essere umano, ovvero di percepire, comprendere, apprendere e agire con livelli di  intelligenza simili a quelli umani. L’elenco di scienze, tecnologie e teorie che sono state  interconnesse tra loro per tale scopo è piuttosto lungo. Le più importanti sono certamente filosofia e logica, ingegneria, linguistica e psicologia sperimentale, logica matematica e  statistica, informatica e ingegneria dei calcolatori, neurobiologia computazionale ed  elaborazione dei segnali e delle immagini, teoria dei giochi e teorie dei sistemi e del  controllo, ecc.  

Il termine di “Intelligenza Artificiale” (IA) viene utilizzato ufficialmente per la prima volta nel  1956 da John McCarthy e altri scienziati durante la conferenza “Dartmouth Summer Project  on Artificial Intelligence1. Finora sono state formulate varie definizioni dell’IA. 

Secondo l’informatica Francesca Rossi2 l’IA è “una disciplina scientifica che mira a  sviluppare programmi o macchine che forniscano risultati che la intelligenza umana  riconosce come innovativi e coerenti con le proprie facoltà cognitive. Obiettivo della IA è la  creazione di algoritmi, robot e tecnologie che usano matematica e statistica per riuscire a  esprimere in formule la complessità del comportamento umano, fornendo un supporto utile  agli umani per superare i loro limiti ed estenderne le capacità». L’Europarlamento definisce  l’IA come “l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività”. L’Organizzazione Mondiale della Sanità  definisce l’IA come “..capacità degli algoritmi di apprendere dai dati, che consente loro di  eseguire compiti automatizzati senza la necessità che l’uomo intervenga per programmare  ogni fase del processo analitico-medico”3.  

L’evoluzione delle applicazioni dell’IA in quasi tutte le attività umane ha avuto uno sviluppo  così rapido e per certi versi dirompente da considerare difficile oggi un’esaustiva definizione  di IA. Infatti si riconoscono diversi tipi di IA: Forte o “Generale (AGI)” e Debole o “Ristretta”,  “Discriminativa” e “Generativa”, “SuperIA”.  

Oggi l’IA o le macchine dotate di IA sono in grado di comprendere un discorso, imparare,  pianificare, risolvere problemi, ragionare, percepire, maneggiare e spostare oggetti. L’ AGI è un tipo IA in grado di generare testo, immagini, video, musica o altri media in  risposta a delle richieste (prompt). L’AGI possiede potenziali applicazioni tra cui sviluppo di  software, marketing e moda, editoria, predizione di struttura proteica, scoperta di nuovi  farmaci a partire da catene di aminoacidi o rappresentazioni di molecole. La Super IA é lo stadio dell’AI in cui le capacità dei computer supereranno quelle degli esseri  umani. È un concetto teorico che si riferisce a una forma di IA altamente avanzata e  superiore a quella umana in termini di capacità cognitive e di calcolo complesso. L’anno 2023 è sicuramente quello in cui giornali e media hanno più fatto conoscere l’IA,  anche perché la stragrande maggioranza della popolazione non sembra essere consapevole degli enormi cambiamenti epocali prodotti dall’IA e quanto le nuove tecnologie stanno cambiando i nostri comportamenti e ogni aspetto della nostra vita.

Tali cambiamenti non sono solo al di fuori di noi, ma sempre più spesso sono dentro di noi: pensiamo sempre meno, per fare semplici calcoli utilizziamo solo la calcolatrice. Ricordiamo anche sempre meno e a volte con maggiore difficoltà. Sicuramente hanno semplificato e
migliorato la nostra vita l’uso di assistenti personali digitali nei computer e negli smartphones, i condizionatori d’aria “intelligenti”, i motori di ricerca, i traduttori simultanei, l’uso di robot per es. nelle fabbriche e in agricoltura, lo shopping on line e tanto altro ancora.

Specie il robot identifica nell’immaginario collettivo la raffigurazione più immediata dell’IA. Isaac Asimov, biochimico scrittore di fantascienza bielorusso, agli inizi degli anni ’40 elaborò le 3 Leggi a cui ogni robot doveva correttamente sottostare.4 Leggi di Asimov: Prima Legge: ” Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno. Seconda Legge: “Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge”. Terza Legge: “Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.” I robot chirurgici sono diventati di fatto estensioni delle mani del chirurgo con un feedback sensoriale analogo a quello che avrebbe il chirurgo se intervenisse direttamente sul paziente e soprattutto permettono interventi più precisi e meno invasivi di quelli tradizionali.

La robotica sta dimostrando enormi potenzialità nello sviluppo di robot da utilizzare nell’assistenza ai malati, agli anziani e ai disabili L’IA inoltre consente l’elaborazione e la diagnosi di immagini diagnostiche (RX, TAC, RMI) con un livello di precisione vicino e a volte superiore a quello dell’esaminatore umano. Un contributo importante l’IA sta fornendo per es. nell’ambito della genetica, specie di quella applicata ai tumori (Oncotype DX) e delle malattie rare (Alphamissense), del monitoraggio da remoto dei pazienti (BabylonHealth), dei sistemi di gestione delle cure per le malattie croniche (Livongo), di scoperta di nuovi farmaci (BenevolentAI). Si può affermare che quasi tutti i giorni nella letteratura scientifica internazionale vengono riportate nuove scoperte per utili impieghi dell’IA in medicina e chirurgia. Tuttavia occorre ricordare che “…Il sistema di IA prende decisioni spesso sconosciute anche al medico che poi dovrà vagliare e validare quelle risoluzioni, proprio perché la scelta viene fatta su algoritmi non deterministici, ma di fatto probabilistici.5

Peraltro anche nei seguenti molteplici ambiti applicativi l’IA ha permesso di acquisire notevoli progressi: comunicazione, editoria produzione industriale e commercio, economia business e finanza, viaggi e logistica, sviluppo di nuove armi, trasporti, organizzazione del lavoro,
didattica ed educazione, intrattenimento, sicurezza, videosorveglianza, moda e marketing, processamento e analisi di dati, analisi di video e immagini, problem solving, arte, diritto, politica e relazioni sociali, comprensione del linguaggio, interazione con esseri umani, guida degli autoveicoli, domotica, ecc. E tale elenco è incompleto!

Come è stato possibile all’intelligenza umana rendere l’IA così potente? Migliorando nel tempo i sistemi di apprendimento delle macchine essenzialmente con la “Machine Learning” e con il “Deep Learning”.
La Machine Learning è una branca o sottoinsieme dell’AI che si occupa di creare sistemi che apprendono o migliorano le loro performances in base ai dati che utilizzano. Così essi forniscono risposte ai problemi presentati in modo adattativo, iterativo e indipendente
«apprendendo» dai dati introdotti a identificare relazioni precise nei dati osservati, a fini di classificazioni e predizione, senza regole e modelli espliciti pre programmati .
La Deep Learning («apprendimento profondo» e automatico) indica un’altra branca dell’ IA che fa riferimento alle reti neurali ovvero ad algoritmi ispirati a struttura e funzione del cervello umano, chiamati “reti neurali artificiali con numeri molto grandi di livelli o strati

Il termine algoritmo dall’appellativo al Khuw?rizm? («originario della Corasmia») del matematico persiano Abu Ja’far Muhammad ibn Musa al Khuw?rizm? del IX sec., designa qualunque schema o procedimento sistematico di calcolo (per es. quello euclideo, quello
delle divisioni successive, quello algebrico, quello costituito dall’ insieme delle regole del calcolo algebrico ecc.). In particolare grazie allo sviluppo di macchine con Deep Learning molto potenti sono state costruite macchine con una capacità di calcolo digitale inimmaginabile fino a pochi anni fa. Fugaku, il supercomputer attualmente più veloce del pianeta, ha una capacità di calcolo di 415,53 petaflop/secondo secondo6. Un petaflop equivale a un milione di miliardi di operazioni/calcoli al secondo. Fugaku oggi può eseguire una normale operazione matematica 415 quadrilioni di volte al secondo, come se ogni singola persona sulla Terra , compresi i neonati, completasse un calcolo ogni secondo per 20 mesi di seguito senza alcuna interruzione .…il cervello viceversa può eseguire al massimo circa 1000 operazioni di base al secondo, risultando 10 milioni di volte più lento di un computer di media potenza. Questa potenza di calcolo viene utilizzata per la ricerca scientifica, con progetti su farmaci, nuovi materiali, tecniche per la diagnosi precoce delle malattie e predizione e simulazione dei disastri naturali, nonché su questioni come il Big Bang e la nascita dell’Universo.

Uno degli ultimi modelli di un personal computer messo in commercio nel settembre del 2023 da una delle marche leader è stato accreditato della capacità di eseguire 18 miliardi di operazioni/calcoli al secondo. Pertanto dobbiamo considerare l’evoluzione dell’ IA come
esponenziale verso frontiere che per definizione sono già al di là della nostra intelligenza, quindi con rischi seri che non si possono sottovalutare. Nella prima metà del 2023 l’introduzione della ChatGPT4 ( Generative Pre trained Transformer ) di OpenAI, ovvero di un prototipo di chatbot basato su IA e machine learning specializzato in conversazioni con un utente umano e creazione di testi su modello umano , ha provocato una forte reazione in tutto il mondo, dimostrando un ulteriore enorme progresso delle capacità operative dell’ IA . Dopo qualche mese a ChatGPT se ne sono aggiunte altre chatbot di ditte concorrenti che promettono di essere ancora più sofisticate.

Un problema non trascurabile, ma che merita tanta attenzione, è che la maggior parte dello sviluppo della IA è stato prodotto da industrie e centri di ricerca privati (difficilmente controllabili), mentre solo una parte irrilevante è frutto di Centri Universitari di ricerca (sensibili a obblighi di tipo etico). Un gruppo di scienziati, ingegneri, ricercatori e grandi imprenditori del settore tecnologico americani sostenuti dal Future of Life Institute (USA) nel marzo 2023 ha lanciato in una lettera aperta la proposta di “ sospendere per 6 mesi gli esperimenti avanzati di AI, rilanciando gli interrogativi etici posti da tempo. Infatti…Infatti…“I sistemi di IA dotati di un’intelligenza competitiva con quella umana possono comportare rischi profondi per la società e l’umanità, come dimostrato da ricerche approfondite e riconosciute dai migliori
laboratori….Come affermato nei Principi di Asilomar per l’IA [ 2017], ampiamente approvati, l’IA avanzata potrebbe rappresentare un cambiamento profondo nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cura e risorse adeguate 7

Tale lettera è stata sottoscritta in pochi giorni da decine di migliaia operatori del settore tecnologico negli USA. I firmatari nella lettera hanno espresso un’antica preoccupazione a proposito del progresso dell’ IA , diventato vertiginoso con ChatG PT 4 , e hanno chiesto di premere il pulsante “pausa” nella corsa sfrenata verso la creazione di “potenti menti digitali che nessuno, nemmeno i loro creatori, può comprendere, prevedere o controllare . Inoltre I ricercatori e gli imprenditori hanno sottolinea t o che l’essere umano non è in grado di gestire le conseguenze etiche, sociali, economiche, politiche e strategiche di questa tecnologia che avanza a passi lunghi e rapidi. Dunque una “richiesta di moratoria di 6 mesi su tutte le nuove ricerche sull’ AI, anche al di là di quanto realizzato dal programma generatore di testi di cui ha parlato tutto il mondo: ChatG PT 4

In realtà già da alcuni decenni sono state sollevate obiezioni e perplessità di tipo etico in merito ai possibili rischi correlati alla difficoltà della mente umana di controllare tempestivamente i risultati delle operazioni compiuti dalle macchine digitalizzate. In particolare in ambito sanitario sono state espresse “obiezioni e perplessità inerenti alla scelta metodologica di accettare una dimostrazione o una diagnosi realizzata dal computer, sia pure istruito dagli esseri umani. Ricercatori e scienziati in larga maggioranza hanno verificato la difficoltà di controllare miliardi di operazioni computazionali eseguite in una giornata lavorativa dalle macchine e dunque il controllo delle strutture di IA è quanto mai complesso e dispendioso e talora impossibile da raggiungere. Questa linea di condotta, per alcuni aspetti, rende noi umani sempre più vulnerabili. Non è infatti così remota la possibilità che queste super-intelligenze ultraveloci procedano per sentieri a noi ignoti a programmare un mondo perfetto eliminando innanzitutto il principale ostacolo alla perfezione, ovvero l’uomo8.” Paolo Benanti9,10, noto studioso italiano di IA, in due sui recenti libri si è posto le seguenti importanti domande: “In un contesto di scarse risorse, perché investire soldi nella ricerca di un enhancement per pochi, invece di cercare cure per le malattie per molti? Perché si sviluppano determinate tecnologie? Perché si vendono? Perché sono necessarie alle nostre forze militari? Perché garantiscono a una nazione la supremazia sulle altre?
E ancora i n un’ epoca in cui la macchina è stata resa capace di surrogare le decisioni umane, come affrontare la sfida di mantenere l’umanità in grado di controllare l’AI? Cosa decidiamo che la macchina può fare senza il controllo dell’uomo? Che decisioni può prendere? Come gestire gli eventuali esiti nefasti di questa delega? Come far sì che lapersona rimanga sempre al centro di quei processi vitali per la sopravvivenza della nostra specie e per una pacifica convivenza sociale?
Sono altrettanto pressanti le domande e le osservazioni dello storico e filosofo Yuval Noah Harari11 che nel suo articolo su The Economist del 23 aprile 2023 sostiene che l’IA ha violato il sistema operativo della civiltà umana “… La nuova generazione di IA non si limita a diffondere i contenuti prodotti dagli esseri umani. Può produrre il contenuto da solo. Provate a immaginare cosa significhi vivere in un mondo in cui la maggior parte dei testi e delle melodie e poi delle serie TV e delle immagini sono create da un’intelligenza non umana. Semplicemente non capiamo cosa significhi. Quali potrebbero essere le conseguenze della conquista della cultura da parte dell’IA?….

Un altro pericolo è che molte persone potrebbero trovarsi completamente senza lavoro, non solo temporaneamente, ma prive delle competenze di base per il futuro mercato del lavoro. Potremmo raggiungere un punto in cui il sistema economico considera milioni di persone completamente inutili. Questo ha terribili conseguenze psicologiche e politiche. Dobbiamo capire che l’intelligenza artificiale è la prima tecnologia nella storia in grado di prendere decisioni da sola.” Del resto già nel 2008 Ray Kurzweil Kurzweil12 scienziato , saggista e direttore di ricerca Google aveva predetto che n ei prossimi trent’anni il progresso tecnologico sara? talmente rapido da essere comprensibile solo a cervelli artificiali

Pertanto a livello internazionale si è imposta l’esigenza di una disamina puntuale dei vari aspetti etici e giuridici in un dibattito interdisciplinare volto a condividere prospettive, consapevolezze, limiti e soluzioni da cui possa derivare un codice regolatorio condiviso. Ovvero trovare un sistema di governance internazionale . L’Unione Europea per prima ha convocato una riunione dedicata a formulare un tale codice di comportamento che sarà formalizzato nell’AI EU ACT. Anche l’ONU ha riunito esperti internazionali per formulare
principi per una governance che eviti concretament e che l’IA possa diventare una seria minaccia per l’umanità. Luciano Floridi, professore di filosofia ed etica dell’informazione all’Università di Oxford, nella sua recente opera13 ha segnalato esempi di crimini attuabili tramite l’ausilio dell’IA (CIA) in svariati campi. Floridi, per evitare il più possibile l’uso criminale dell’IA indica cinque principi etici, quali condizioni disciplinanti ogni intervento che preveda l’impiego dell’intelligenza artificiale e afferma che “ogni azienda, apparato governativo o istituzione accademica che disegna, sviluppa o implementa l’IA, ha l’obbligo di farlo in linea con un quadro etico”. E’ auspicabile pertanto che le varie organizzazioni internazionali si coalizzano per rendere possibile un utilizzo dell’IA etico e rispettoso della specificità dell’uomo.

Come ha scritto Gerd Gigerenzer (14) occorre restare intelligenti in un mondo “intelligente”.

“Restare intelligenti significa comprendere le potenzialità e i rischi delle tecnologie digitali ed essere determinati a mantenere il controllo in un mondo popolato da algoritmi”

 

1 Benanti P.: Human in the loop Decisioni umane e Intelligenze Artificiali Mondadori Università,2022
2 Rossi F: l confine del futuro ””. Milano: Feltrinelli, 2019
3 Colecchia GP e De Gobbi R: Intelligenza artificiale e medicina digitale ””. 2020 Il Pensiero Scientifico editore

4 https://it.wikipedia.org/wiki/Tre_leggi_della_robotica
5 https://ilbolive.unipd.it/it/news/salute-intelligenza-artificiale-medicina-buone

6 https://edge9.hwupgrade.it/news/innovazione/il supercomputer giapponese fugaku entra in servizio e il piu potente al mondo_96376.html
7 Il Sole24 ore, 29 Marzo 2023 .

8 De Gobbi R e Colecchia GP: http://www.pillole.org/public/aspnuke/news.asp?id=7525)
9 Benanti P.: Postumano, troppo postumano ””. Castelvecchi Ed. 2017
10 Benanti P.: Human in the loop Decisioni umane e intelligenze artificiali ””. Mondadori 2022
11 https://www.economist.com/by invitation/2023/04/28/yuval noah harari argues that ai has hacked the operating system of human civilisation

12 Ray Kurzweil: La singolarità è vicina”, Maggioli Editore, 2008
13 Floridi L: “Etica dell’intelligenza artificiale”. Raffaello Cortina, 2022.
14 Gerd Gigerenzer: Perché l’intelligenza umana batte ancora gli algoritmi” Raffaello Cortina Editore 2023