È da tanto che se ne parla ma ora già sta gradualmente guadagnando terreno, una marcia inesorabile a questo punto. L’intelligenza artificiale non è più solo dominio del genere fantascienza ma concreta realtà. E come in tutte le cose, detrattori ed estimatori continuano a darsi contro, nel tentativo di far prevalere l’una o l’altra posizione. Da un punto di vista generale mi piacerebbe comunque tentare di fare un po’ di chiarezza. Dopotutto non è un caso che il titolo includa due parole che iniziano per “AI”.
C’è qualcosa che attrae, innegabilmente, soprattutto per le enormi potenzialità che si intravedono dal punto di vista tecnologico. E c’è qualcosa che inquieta, soprattutto dal punto di vista della sicurezza e del pericolo che altrettanto si percepisce come reale.
Secondo Wikipedia “è una disciplina che studia se e in che modo si possano realizzare sistemi informatici intelligenti in grado di simulare la capacità e il comportamento del pensiero umano”.
Cioè prima di tutto l’intelligenza artificiale è una simulazione di quella umana, questo bisogna dirlo forte e chiaro, una simulazione.
È una tecnologia che implementa algoritmi in grado però di modificarsi da sé e capaci inoltre di crearsi una vera e propria base di conoscenza auto-generata, nel tentativo – appunto – di simulare il processo di apprendimento tipico del pensiero umano e che conduce dall’infanzia all’età adulta. In effetti non si richiede una enorme base di dati sulla quale appoggiarsi per procedere ma di un “qualcosa” che apprende, “come fa un bambino”, che è la frase ricorrente tra quanti ne tessono le lodi. Ma in fondo è pur sempre una simulazione, non la copia esatta del processo della crescita esperienziale umana. Non è un bambino, non tocca, non piange, non sente piacere né dolore; è una simulazione tecnologica. Ma su questo ci torniamo poi.
Le potenzialità sono comunque innegabilmente enormi, una rivoluzione nel campo informatico. Per esempio si è trovato il modo di semplificare processi matematici complessi in modo da eliminare migliaia di possibili soluzioni per limitare lo studio delle più probabili, facendo risparmiare anni ai ricercatori. Così come sono state disegnate da un’intelligenza artificiale delle nuove molecole stabili in frazioni di secondo, cosa impossibile agli esseri umani, e così via.
Ci sono però altre moltissime cose che preoccupano i più, soprattutto dal punto di vista etico o pericolose per tutti noi. Se da un lato alcuni risultati, anche in campo medico, faranno progredire le nostre procedure, dall’altro ci renderanno forse inutili sotto certi punti di vista.
Già si sente parlare di possibili scenari nel caso dei centralini di smistamento, i quali per esempio potrebbero “rispondere” a emergenze mediche attraverso un computer per indirizzare chi ne avesse bisogno verso la struttura più adeguata. O fornire criteri perché le assicurazioni decidano se accettare determinate procedure mediche o meno per un dato paziente. O magari rispondere in caso di delitti per evitare di rivolgersi a poliziotti in carne ed ossa.
Pochi giorni fa è stata effettuata una prova pratica al simulatore di volo militare di un pilota umano contro un’intelligenza artificiale in caso di combattimento aereo: sono bastati all’intelligenza artificiale solo novanta secondi (!) per sbaragliare l’essere umano.
Una AI ha superato a pieni voti l’esame di medicina negli Stati Uniti.
Addirittura sempre una AI ha trovato una possibile cura per un particolare tipo di cancro al fegato, battendo gli umani. O perché no, algoritmi del genere potranno in futuro condurre autonomamente automobili ( o forse treni? aerei? sottomarini?). Le potenzialità sono davvero infinite ma altrettanto preoccupanti.
Secondo me il problema di fondo che vorrei sollevare è il seguente: l’AI, nel suo processo di apprendimento, cosa valuterà giusto e cosa sbagliato? Lo regolerà un algoritmo? E anche lui sarà capace di correggersi? Come? Con quali criteri?
Perché questo è spesso un errore comune, scambiare “algoritmo” o “sistema esperto” per “intelligenza artificiale”: i primi sono algoritmi statici e ripetitivi, che sempre cioè faranno al stessa cosa in una determinata situazione ma che mai possono apprendere. Sono costituiti da algoritmi statici, una sequenza di istruzioni ripetitive. Invece l’AI è capace di apprendere e di modificare il comportamento in funzione delle nuove condizioni al contorno. Algoritmi e AI non sono assolutamente la stessa cosa (ad esempio alcuni confondono continuamente questi aspetti).
La faccenda è talmente complessa che anche la Chiesa si è posta il problema. Perché la portata di tutto questo è enorme, tanto che la nostra stessa esistenza potrebbe essere condizionata in maniera assoluta nel quotidiano.
Quindi secondo me tutto dipenderà dai limiti che sapremo imporre in quanto a regole elementari che poi i processi di apprendimento artificiali dovranno implementare. In qualche modo si dovrà “spiegare” ai motori di AI come ritenere “questo” giusto e “quello” sbagliato e come imparare a farlo. Sempre ammesso che si possa in qualche modo “educarli”.
Ai bambini li si può castigare quando sono stati cattivi, a un computer proprio no. Perché il problema è proprio quello, come dicevo all’inizio: non toccano, non provano emozioni né dolore, né voglie. In pratica non sono e mai saranno umani. E ce ne sono di prove al riguardo, per esempio circa le risposte che questi sistemi di solito danno, un misto di banalità e luoghi comuni, come di nozionismo appreso a pappagallo (verrebbe da dire anche a me un’altra banalità: la classe non è acqua che, a proposito, gli brucia i circuiti, mi si perdoni la battuta). Inoltre l’AI potrebbe prendere per vere cose false divulgandole (come però del resto succede anche a noi).
L’altro tema, derivante dal precedente e che giganteggia nel mondo informatico e non solo, in effetti è la coscienza, anche se questo è un problema al momento senza soluzione, soprattutto perché nessuno sa esattamente cosa sia (nemmeno quella degli esseri umani, come ho evidenziato a suo tempi in altri precedenti articoli in altri siti).
Sarebbe impreciso però dire che un’intelligenza artificiale non possa avere una coscienza, perché ce ne possono essere di molti tipi diversi. Per esempio, assimilando l’etica alla definizione di giusto e sbagliato si è tentato di mescolare tutti questi temi, facendo forse confusione, generando una specie di “codice etico artificiale”, come per delimitare il motore di apprendimento tra limiti accettabili per noi suoi creatori. Ma non è nemmeno del tutto corretto dire che mai un’intelligenza artificiale potrebbe averla una coscienza, perché potrebbe essere di un altro tipo. Una “coscienza artificiale”, per l’appunto. Non umana ma neanche scartabile a priori come impossibile. Tanto che alcuni hanno ritenuto sensato chiedersi se sia opportuno valutare una coscienza artificiale.
Intanto questa storia, visto che di battaglia tecnologica a suon di milioni di dollari si tratta, ne è nata una guerra senza quartiere tra i principali attori protagonisti, soprattutto OpenAI (alleatasi con Microsoft © , anche se la stessa sta sviluppando una sua versione implementata in Bing) e Google ©. La prima ha sviluppato ChatGPT, un motore che permette di rispondere alle domande degli utenti, per l’appunto tramite intelligenza artificiale. La stessa Google ha provato a rispondere con una sua versione, chiamata Sparrow che però, al momento della presentazione in pubblico, ha fatto un catastrofico errore causando clamorose perdite in borsa in poche ore. Insomma dietro a tutto questo c’è il controllo degli utenti e del mercato, perché chi vincerà tra i vari colossi determinerà come probabilmente orientare le risposte alle domande della gente, ovvero come controllare l’opinione pubblica. In fondo, stringi stringi, di questo si tratta, del controllo della maniera di pensare della gente.
Parallelamente sta procedendo alla svelta lo sviluppo dei computer quantistici, la piattaforma tecnologicamente ideale per albergare sistemi di intelligenza artificiale. Immaginate come le enormi potenzialità dell’AI possano svilupparsi grazie alle tremende capacità dei computer quantistici, come per proiettarle verso l’infinito.
Alcune complicate elaborazioni che avrebbero richiesto a uno dei più grandi super-computer del pianeta circa 100.000 anni terrestri per arrivare al risultato, sono state effettuate in tre minuti. Impressionante. E pericoloso anche per tutto ciò che riguarda la sicurezza: un computer quantistico potrebbe individuare qualunque password di qualunque applicazione che consenta accessi protetti, si pensi per esempio ai portali delle banche che controllano i nostri soldi: qualunque password sarebbe violata in meno di un miliardesimo di secondo. O magari come violare i codici di accesso dei sistemi di lancio di armi atomiche, tanto per fare un altro esempio. Cose da non prendere alla leggera. Se si arrivasse a questo, allora sia le banche, che gli armamenti nucleari e qualsivoglia altra applicazione ad accesso protetto dovrebbe attrezzarsi con la nuova tecnologia, si pensi questo cosa comporti al livello di rivoluzione tecnologica ed economica.
Entrare in dettaglio sarebbe cosa impossibile in poche righe, mi limiterò solo a sottolineare che se gli attuali computer basano il loro funzionamento sul concetto di bit, che solo può assumere valore zero o uno, i computer quantistici invece usano i qBit, che possono assumere più valori alla volta, secondo la “logica” della sovrapposizione di stati, tipica della meccanica quantistica. Questo permette di valutare un’enormità di valori quasi istantaneamente. Di conseguenza attualmente si sta lavorando al problema del rumore, ovvero degli “errori” che possono generarsi a livello di collasso della funzione d’onda, ma questo richiederebbe moltissimo tempo e spazio per parlarne. Altro elemento che vorrei sottolineare è che gli attuali computer quantistici sperimentali in funzione sono delle macchine enormi, che per funzionare hanno bisogno prima di tutto di essere schermate dal mondo esterno, proprio per il problema del rumore che induce errori; poi perché hanno bisogno della superconduttività, ovvero dello stato di riduzione a zero della resistenza elettrica perché i fenomeni quantistici possano avere luogo. Solo che finora la superconduttività ha un problema fondamentale: si verifica quasi allo zero assoluto di temperatura, ovvero a circa -270° sottozero. Quindi in pratica, questi computer quantistici – mi si consenta l’espressione – sono dei giganteschi frigoriferi per così dire, che hanno bisogno di costosissime installazioni. Anche in questo senso però qualcosa si sta muovendo, potendo ipotizzare che in futuro potrebbe essere possibile creare un personal computer quantistico, potendoli far funzionare a temperatura ambiente. Tra qualche decennio forse potrebbe essere possibile. O magari anche prima. La corsa è a pieno regime, trovando nuovi risultati quotidianamente dal punto di vista tecnologico.
In finale che dire, quello dell’intelligenza artificiale è qualcosa di estremamente critico, molte sono le possibilità e i problemi potenziali in vista. Qualcuno ha già ipotizzato come stia già di fatto prendendo il sopravvento su noi umani. Soprattutto in quest’ultimo link potrete verificare quanto pericolo concreto ci sia alle porte. Meglio essere pronti ed eventualmente correre ai ripari, prima che sia troppo tardi. Meglio rimanere umani.