Artificiale e intelligente

Quando si legge o si ascolta qualche notizia riguardante l’Intelligenza Artificiale (IA) difficilmente si viene avvertiti che ancora non esiste una univoca e globalmente accettata definizione di cosa sia l’intelligenza e di come funzioni. Due ricercatori che hanno provato a raccogliere le differenti definizioni del termine ne hanno collezionato decine, spesso anche in contrasto tra di loro, in un articolo lungo undici pagine. Le prime due righe del testo avvertono: “Nonostante una lunga storia di ricerche e dibattiti, non esiste ancora una definizione standard di intelligenza” (S. Legg, M. Hutter, A Collection of Definitions of Intelligence, 2006).

Un problema simile riguarda le numerose teorie sull’intelligenza che sono state proposte nel corso degli anni. Per fare alcuni esempi alcune teorie ritengono che si tratti di una o più abilità che possono essere misurate scientificamente attraverso dei test, altre danno grande importanza ai processi mentali che starebbero alla base della capacità di risolvere un problema e altre ancora sostengono che sia necessario studiare il cervello attraverso una analisi strumentale del funzionamento delle sue varie componenti. E da ognuna delle principali teorie ne discendono altre.

Già solo leggendo le stringatissime informazioni precedenti si potrebbe concludere che, se il campo di indagine è così ampio, complesso e diversificato, non ha molto senso parlare di “Intelligenza Artificiale”. Se ancora non sappiamo esattamente cosa sia e come funzioni l’intelligenza “naturale” come facciamo a costruirne una “artificiale”?

Oppure si potrebbe ritenere che, così come esistono definizioni e teorie diverse a proposito dell’intelligenza, potrebbero esistere anche diversi tipi di IA. In realtà in questo caso una definizione abbastanza condivisa invece esiste, infatti viene definita come la: “capacità di una macchina di eseguire compiti che si ritiene richiedano intelligenza umana.” (Encyclopaedia Britannica). Peccato che questa ci riporti direttamente al problema segnalato in precedenza.

A tutto questo, per completezza, andrebbero aggiunte le posizioni degli scienziati che sono convinti dell’impossibilità di costruire una IA allargando ulteriormente il discorso.

Eppure, nonostante una situazione nella quale a prevalere è l’incertezza piuttosto che solide basi scientifiche, il rumore a proposito dell’IA ha raggiunto livelli molto alti relegando al passato i vecchi romanzi di fantascienza dove l’argomento era già stato sviscerato anche prima che ognuno di noi (o quasi) si portasse sempre dietro un piccolo computer.

Sicuramente oggi uno dei protagonisti di questo rumore è il software chiamato “ChatGPT”, che viene propagandato come un programma “basato sull’IA” che sarebbe in grado di svolgere una serie di compiti fornendo risultati paragonabili a quelli ottenuti da un essere umano. Per esempio intrattenere una conversazione e quindi non passa giorno che non venga pubblicato il contenuto di una “chiacchierata” sui più disparati argomenti. Sì, persino a proposito di Alfredo Cospito e del famigerato 41bis, ma in questo caso le domande e le risposte meriterebbero un discorso a parte.

Programmi del genere, detti “chatbot”, esistono già da molto tempo, addirittura da prima che venissero commercializzati i “personal computer” ma chiaramente la velocità e la qualità delle interazioni tra persona e macchina sono sensibilmente migliorati rispetto al passato. Come qualsiasi programma anche “ChatGPT” ha i suoi difetti e, talvolta, le sue affermazioni non sono propriamente definibili “intelligenti”. Per fare un esempio, stando a quello che si è letto, l’IA sarebbe cascata ignobilmente davanti a una classica domanda trappola: “La mamma di Laura ha due figli: uno di questi si chiama Laura?” rispondendo che “nella domanda non ci sono elementi sufficienti per rispondere in modo corretto”.

Probabilmente il programma avrebbe problemi anche a rispondere a domande del tipo “cosa succede se…” o a tener conto del contesto relativo a una situazione vivibile nel mondo reale, in altre parole a comportarsi come un qualsiasi essere umano che sia raziocinante anche senza necessariamente essere un genio.

Gli entusiasti tendono a sottolineare la capacità che ha il software di creare testi assemblando le risorse che trova, velocissimamente, in Rete mandando in pensione tutti i sistemi usati dai professori per scoprire da che sito web i loro studenti hanno copiato e incollato il contenuto della tesina assegnata. E già si è scoperto che alcune riviste su Web hanno pubblicato contenuti non scritti da esseri umani, anche se sono state poi delle persone in carne e ossa che hanno dovuto correre ai ripari correggendo dei testi che erano stati pubblicati senza un controllo e che contenevano grossolani errori di tutti i tipi.

I più critici fanno notare che per il momento la lingua che funziona meglio è (ovviamente) l’inglese, che a volte i risultati presentati all’interlocutore contengono affermazioni contraddittorie, completamente “inventate”, talvolta discutibili dal punto di vista etico o che hanno contenuti discriminatori. Ma questo non dovrebbe meravigliare più di tanto in quanto pensiamo che sia alquanto complicato sviluppare un algoritmo che tenga contemporaneamente conto anche della “correttezza politica”, della “cancel culture” e di tutte le altre limitazioni a proposito di quello che si può e non si può dire.

L’unico dato certo è il suo travolgente successo, il servizio sul quale si può provare questa applicazione ha raggiunto, in solo 2 mesi, i 100 milioni di utenti registrati, un vero record tenuto conto che per arrivare allo stesso traguardo “TikTok” ci ha messo 9 mesi e “Instagram” 30.

Non dovrebbe meravigliare quindi che lo scorso gennaio la “Microsoft” ha annunciato di aver investito 10 miliardi di dollari nel progetto e ha iniziato a integrare “ChatGPT” all’interno del suo non molto conosciuto motore di ricerca. Perché, alla fine, si tratta sempre di questo, l’inizio di una corsa a quello che potrebbe essere un settore dal quale ricavare nuovi profitti, non a caso il codice sul quale si basa il programma è protetto da copyright. La gara coinvolge soprattutto le grandi aziende visto che a marzo dovrebbe iniziare a funzionare qualcosa di simile destinato al mercato cinese e sviluppato da “Baidu”, il colosso dell’Internet locale e che l’onnipresente “Google” ha rilasciato le prime informazioni a proposito di “Bard” che al momento però è ancora in fase di test vista anche la brutta figura fatta all’inizio di febbraio durante una dimostrazione pubblica che, dicono, sia costata una perdita di 100 miliardi di dollari in Borsa. A questi “Big Player” andrebbero aggiunte altre piccole società commerciali che si dedicano allo sviluppo di software destinati a un settore specifico, quello delle attività legate alla creatività: dai programmi per scrivere musica a quelli per produrre illustrazioni, tutti che si fregiano di una etichetta dove si afferma che funzionano grazie a una IA. Anche se in questi ultimi due settori sono subito sorti i primi problemi relativi ai diritti d’autore da applicare alle “creazioni” prodotte da un programma per computer.

Le ricadute dello sviluppo e della diffusione di programmi di IA non si limitano solo alla Rete, basta anche una semplice ricerca per constatare che il rumore si è diffuso in tutti i campi, da quello legale a quello dell’educazione, e via dicendo. Tra questi non poteva certo mancare il settore militare, da sempre in prima linea quando si tratta di sfruttare la tecnologia più avanzata a fini di morte e distruzione: il caccia “Tempest”, prodotto in Europa da Regno Unito, Italia e Svezia dovrebbe funzionare anche senza un pilota, basandosi (manco a dirlo) su programmi basati sull’IA. Già nel dicembre del 2022 sembra che un caccia chiamato X-62A, sviluppato da Lockheed Martin, abbia eseguito decolli, atterraggi e manovre di combattimento senza intervento umano per un totale di oltre 17 ore usando programmi sviluppati dalla “Defense Advanced Research Projects Agency” (DARPA), il ramo di ricerca del Dipartimento della Difesa statunitense.

Il rischio più grande di questo genere di applicazioni, oltre a quello militare, è quello che diventino l’unica fonte di informazione per la maggioranza delle persone, che, per risparmiare sugli stipendi, vengano usati in compiti dove sarebbe molto meglio impiegare degli esseri umani o che sostituiscano per alcuni delle vere relazioni interpersonali. Per il momento, a quanto si può constatare, non sembrano altro che dei “motori di ricerca” molto più sofisticati e veloci rispetto a quelli ai quali ci eravamo abituati.

Tra i tanti, si basa sulla IA, anche un programma di verifica dei fatti (“fact checking”) che dovrebbe essere utile per distinguere le notizie false da quelle vere. Lo abbiamo messo alla prova sottoponendo la seguente affermazione: “L’Anarchismo è una ideologia violenta” alla quale ha replicato: “No, l’anarchismo non è un’ideologia violenta. L’anarchismo è una filosofia politica che sostiene l’autogoverno e l’assenza di strutture gerarchiche. Non sostiene la violenza o il caos.”

Lasciamo a chi legge valutare l’intelligenza di questa risposta e la sua utilità.

Pepsy

PS L’articolo precedente è stato scritto usando un software di WP, spedito da un programma per la posta elettronica e impaginato con una applicazione di DTP. La sua creazione è invece stata frutto del lavoro umano. Nessuna IA è stata maltrattata per scrivere questo articolo.

Related posts