Autrice: Alessia Guarnaccia

Con il termine AGI (Artificial General Intelligence) ci si riferisce alla cosiddetta “Intelligenza Artificiale Generale” ossia “un ipotetico programma informatico in grado di svolgere compiti intellettuali come o meglio di un essere umano” (H. Hodson). Con la capacità supposta di applicare l’”intelligenza” a qualsiasi problema, si ha l’ambizione di attribuirle abilità cognitive generali.

L’AGI, intesa come studio teorico e pratico di questo tipo di sistemi ingegnerizzati e dei metodi per crearli, è parte dei più vasti campi dell’intelligenza artificiale (AI) e delle scienze cognitive (cognitive science); è inoltre “strettamente correlata ad altre aree come il metalearning (noto anche come “meta-apprendimento” o “imparare a imparare“) e le neuroscienze computazionali (computational neuroscience)”. Obiettivi di ricerca associati all’AGI sono connessi a concetti come “intelligenza sintetica” (“SI – synthetic intelligence”) (Joscha Bach, 2009), “intelligenza computazionale” (“CI – computational intelligence”), “intelligenza naturale” (“natural intelligence”), “architettura cognitiva” (“cognitive architecture”), “architettura cognitiva biologicamente ispirata” (“BICAbiologically inspired cognitive architecture”); essa è correlata, ma non completamente sovrapposta, al concetto apertamente antropomorfico di “IA di livello umano” (“human-level AI”) (Cassimatis, 2006), termine usato per riferirsi ad un’IA ragionevolmente simile all’uomo.

Il termine “generale” contrappone il concetto alla cosiddetta “IA ristretta” (“narrow AI”) che si riferisce invece ad un “tipo di intelligenza artificiale progettata per gestire efficacemente un compito specifico” e che, operando in base a regole e vincoli fissi non è in grado di trasferire le sue conoscenze o di ricordare la sua esperienza in un ambiente sconosciuto” per cui, se si modifica il contesto o le specifiche di comportamento, è “generalmente necessario un certo livello di riprogrammazione umana per consentire al sistema di mantenere il suo livello di intelligenza” (Kurzweil, 1999). I “sistemi naturali generalmente intelligenti”, come gli esseri umani, hanno invece “un’ampia capacità di auto-adattarsi ai cambiamenti dei loro obiettivi o delle circostanze”, compiendo un “apprendimento per trasferimento” (transfer learning) in grado di generalizzare la conoscenza e applicarla ad obiettivi o contesti diversi da quelli di partenza: fondamentale qualità a cui mira la comunità di ricerca focalizzata sull’AGI.

Il concetto stesso di “intelligenza generale” (GI – General Intelligence) non ha ancora una definizione chiara e universalmente accettata, così come quello di “intelligenza” inteso in termini naturali (oltre 70 definizioni diverse, provenienti da ricercatori di differenti discipline, sono state riassunte ed organizzate in un unico documento da Legg e Hutter nel 2007). Nel tempo hanno preso forma alcuni approcci chiave per “concettualizzare la natura dell’intelligenza generale”. Secondo il cosiddetto “approccio pragmatico” (“pragmatic approach”) è il “confronto con le capacità umane” e l’abilità di “fare le cose pratiche, utili e importanti, tipiche delle persone”, che può far comprendere se il sistema in esame possiede i connotati di sistema generalmente intelligente. Questa prospettiva è mostrata dall’articoloHuman Level Artificial Intelligence? Be Serious!“, scritto su AI Magazine da Nils J. Nilsson, uno dei padri fondatori del campo dell’IA (Nilsson, 2005), dove l’autore sostiene la “necessità di sviluppare sistemi generici ed educabili” in grado di “imparare ed essere istruiti a svolgere una qualsiasi delle attività” che gli esseri umani possono compiere e afferma che si debba iniziare con un sistema con capacità integrate minime, anche se estese, inclusa l’attitudine a migliorare attraverso l’apprendimento. L’approccio psicologico alla caratterizzazione dell’intelligenza generale (“psychological approach”), invece, piuttosto che esaminare direttamente le abilità pratiche, “cerca di isolare le capacità sottostanti più profonde che consentono le stesse”. In una fase iniziale degli studi sull’intelligenza, l’attenzione si incentrò fortemente sulla misurazione: Charles Spearman nel 1904 propose il cosiddetto “fattore g” (“g factor”), abbreviazione di “general factor“, sostenendo che fosse “determinato biologicamente e rappresentasse il livello generale di abilità intellettuale di un individuo”; William Stern introdusse nel 1912 la nozione di quoziente di intelligenza o QI (IQ – intelligence quotient), la cui formula fu successivamente migliorata da Lewis M. Terman. In una fase successiva fu poi messo in discussione il concetto di “intelligenza come capacità singola e indifferenziata” ed emersero “teorie, definizioni e approcci di misurazione che condividevano l’idea che l’intelligenza fosse sfaccettata e variabile” negli individui sia come singoli sia come gruppi sociali. Tra questi approcci, un noto esempio è la teoria delle intelligenze multiple (“theory of multiple intelligences”) di Howard Gardner (1983), che propose otto forme o tipi distinti di intelligenza: (1) linguistica, (2) logico-matematica, (3) musicale, (4) corporeo-cinestetica, (5) visuale-spaziale, (6) interpersonale, (7) intrapersonale e (8) naturalistica. A differenza degli approcci basati sul tipo umano, alcuni ricercatori hanno cercato di comprendere il fenomeno in termini universali (“mathematical approach”) definendolo come misura della capacità media di un agente di raggiungere obiettivi (ottenere ricompense) in una varietà ampia e ponderata di ambienti (S. Legg, M. Hutter) e arrivando all’intuizione di fondo per cui “un’intelligenza assolutamente generale sarebbe realizzabile solo con una capacità computazionale infinita”, inoltre, per qualsiasi sistema computabile, “esisteranno contesti e obiettivi per i quali il soggetto non sarà molto intelligente”. E’ poi l’approccio cosiddetto “adattivo” (“adaptationist approach”) a considerare l’intelligenza generale come strettamente legata al contesto in cui esiste, definendola proprio come “adattamento all’ambiente utilizzando risorse limitate” (Pei Wang, 2006) per cui “un sistema ha una maggiore intelligenza generale se è in grado di adattarsi efficacemente a una classe più generale di ambienti, entro vincoli realistici di risorse”.

Le diverse prospettive teoriche al tema dell’intelligenza generale hanno determinato, nel corso del tempo, approcci tecnici differenti all’obiettivo di trasferire questa competenza ai sistemi artificiali: W. Duch ha distinto tre paradigmi: simbolico (Symbolic AGI), emergentista (Emergentist AGI) e ibrido (Hybrid AGI), a cui B. Goertzel ha aggiunto poi la categoria “universale” (Universal AI). Sotto il profilo ingegneristico è stato poi l’emergere dei neuroni formali (“artificial neuron”), delle reti neurali artificiali (ANNs – Artificial neural networks) e lo sviluppo vertiginoso del deep learning a consentire la sperimentazione su sistemi artificiali di concetti come l’”apprendimento hebbiano” (“Hebbian learning” secondo cui i percorsi neurali si rafforzano ogni volta che vengono utilizzati, Donald Hebb, 1949), l’“apprendimento per rinforzo” (“reinforcement learning”), gli algoritmi genetici (“genetic algorithm”) ed altre tecniche tali da implementare in modo artificialearchitetture cognitive con proprietà dinamiche sempre più complesse e auto-organizzanti”.

Alcune fonti accademiche riservano il concetto di AGI “a quei programmi informatici in grado di essere senzienti” e di “includere tutte le caratteristiche di una mente umana, fra cui la coscienza (consciousness)”. In quest’accezione è usato il termine “intelligenza artificiale forte” (“strong AI”) in contrapposizione all’”AI debole” (“weak AI”) focalizzata su compiti specifici, “utile quest’ultima per testare ipotesi sulle menti, ma non essendo essa stessa tale” (J. Searle). Questa prospettiva nasce dallo storico obiettivo “di individuare un programma di regole che spieghi, e auspicabilmente emuli, il funzionamento delle intelligenze biologiche”, rientrando in pieno nel dibattito delle “macchine pensanti“, (“thinking machines”).

Uno dei momenti cruciali di questo dibattito è stato l’ideazione, da parte di Alan M. Turing della Macchina di Turing (MdT) (Turing Machine) (un modello matematico di calcolo che descrive una macchina astratta in grado di “manipolare, leggere e/o scrivere, simboli su un nastro potenzialmente infinito secondo una tabella di regole” e idoneo ad “implementare qualsiasi algoritmo informatico”); evoluta nella cosiddetta macchina di Turing universale (MTU) (UTMUniversal Turing Machine) (una macchina di Turing che può “simulare una MdT arbitraria su un input arbitrario…leggendo sia la descrizione della macchina da simulare sia l’input di essa dal proprio nastro”). A queste formalizzazioni ha fatto poi seguito la concezione del test di Turing (Turing test), originariamente chiamato “imitation game” (suggerito dall’autore nell’articoloComputing machinery and intelligence” apparso nel 1950 sulla rivista Mind): un criterio basato su conversazioni testuali in linguaggio naturale tra un uomo e una macchina per determinare se quest’ultima sia “in grado di esibire un comportamento intelligente equivalente o indistinguibile da quello di un essere umano”. Il principio sotteso diventa che una “MT (macchina di Turing), adeguatamente programmata, è in grado di eseguire qualsiasi funzione computabile dall’uomo” e che «se un problema è umanamente calcolabile, allora esisterà una macchina di Turing in grado di risolverlo (cioè di calcolarlo)» (Tesi di Church-Turing (Church-Turing Thesis).

Con particolare riferimento all’evenienza di avere un comportamento intelligente da parte di una macchina tale da renderla indistinguibile da un essere umano, un aspetto considerato cruciale è quello dell’intenzionalità degli stati mentali (ossia “l’attitudine costitutiva del pensiero ad avere sempre un contenuto, ad essere essenzialmente rivolto ad un oggetto, senza il quale il pensiero stesso non sussisterebbe”) e la possibilità di estendere l’intenzionalità ai sistemi artificiali. Nella “teoria sull’intenzionalità” lo psicologo sperimentale Franz Brentano nel 1874 ha indicato proprio queste due caratteristiche della stessa: il possesso di un contenuto informativo e la peculiarità di vertere su un «oggetto intenzionale», definendo l’intenzionalità come la caratteristica principale dei fenomeni psichici (o mentali), tramite cui essi possono essere distinti dai fenomeni fisici. Da questa considerazione parte il filosofo John R. Searle ritenendo che l’intenzionalità intrinseca (proprietà della coscienza) è propria soltanto dei sistemi biologici; celebre l’esperimento mentale da lui ideato, cosiddetto della “stanza cinese” (“Chinese room”) come “controesempio rispetto alla teoria dell’intelligenza artificiale forte” (argomentazione presentata nell’articolo “Minds, Brains and Programs”, pubblicato nel 1980 dalla rivista scientifica The Behavioral and Brain Sciences) dove intende dimostrare che “la sintassi (la “grammatica”, la capacità del computer di eseguire una procedura) non implica la semantica (il “significato”, il fatto che il computer sappia che cosa sta facendo)”.

Attualmente l’obiezione cosiddetta “connessionista” (“connectionism”) sostiene che la comprensione dei significati può“emergere da un complesso computazionale che superi la logica seriale dei calcolatori digitali” in modo tale da rendere sistemi semplici sempre più simili a quelli complessi e dinamici fino ad un livello, in prospettiva, simile ai sistemi biologici in modo tale da non escludere, in futuro, l’evenienza di una mente artificiale che dia prova di consapevolezza e intenzionalità intrinseca.

Un aspetto considerato poi importante nel dibattito sull’argomento è che un’Intelligenza Artificiale Generale capace di emulare la mente umana potrebbe anche migliorare ricorsivamente (“auto-miglioramento ricorsivo”, “recursive self-improvement”), ossia, “partendo dal livello umano, migliorare autonomamente se stessa, producendo soluzioni e tecnologie molto più velocemente degli scienziati umani”, con sviluppi difficili da prevedere. Uno scenario che desta non pochi interrogativi e che necessita di una forte accelerazione sulla consapevolezza dei “rischi esistenziali” associati a questa prospettiva (Etical AI).

Link iscrizione evento: https://app.singularityumilan.com/event/incontro-52

References:

Hebb, D.O., The Organization of Behavior, Wiley & Sons, New York 1949

Dennett D.C., The Intentional Stance, MIT press, Cambridge, Massachusetts, 1987

Edelman G., Neural Darwinism. The Theory of Neuronal Group Selection, Basic Books, New York,1987

Domeniconi J., Discorsi sulle reti neurali e l’apprendimento, 2001

Kurzweil R., The Age of Spiritual Machine, Penguin, New York, 1999

L’immagine in evidenza è stata elaborata con DALL-E