Parola chiave: artifical general intelligence

Introduzione

L’Artificial General Intelligence (AGI) fa riferimento ad un tipo di Intelligenza Artificiale in grado di compiere qualsiasi compito intellettuale che un essere umano può svolgere. In questo articolo, esamineremo il dibattito tra gli esperti sull’AGI e le prospettive future di questa tecnologia in vista dell’incontro di martedì 20 giugno 2023, dal titolo AGI – Artificial General Intelligence, organizzato da SingularityU Milan Chapter. 

Evento moderato da David Orban con i prestigiosi relatori: Antonio ChellaFull Professor of Robotics and Director of RoboticsLab all’Università di Palermo e Riccardo ManzottiFull Professor of Theoretical Philosophy in IULM.

Prima di iniziare la lettura, iscriviti all’evento da qui: https://app.singularityumilan.com/event/incontro-52/info

Il dibattito tra gli Esperti sull’AGI

Molti esperti riconoscono il potenziale trasformativo dell’AGI e l’importanza di svilupparlo in modo etico e responsabile. Alcuni studiosi ritengono che l’Artificial General Intelligence possa portare a grandi benefici per l’umanità, come la risoluzione di problemi complessi e l’avanzamento scientifico, mentre altri mettono in guardia sulle possibili conseguenze negative, come la perdita di posti di lavoro o addirittura il superamento dell’umanità stessa.

Secondo l’articolo pubblicato su “Agenda Digitale“, gli esperti sono divisi sulle prospettive e le implicazioni dell’AGI. Alla fine del 2022, si è tenuto un dibattito di grande importanza per lo sviluppo tecnologico, a Montreal, sull’Intelligenza Artificiale Forte (strong AI), al quale hanno partecipato figure di spicco provenienti da diverse discipline. Tra di esse, la Presidente dell’Association for the Advancement of Artificial Intelligence, Francesca Rossi. Durante l’evento, sono emerse considerazioni rilevanti sul tema delle intelligenze artificiali (AI), che vanno oltre il dibattito specialistico. L’evento svoltosi a Montreal il 23 dicembre e promosso dal progetto canadese Quebec.AI, ha coinvolto esperti di AI e non solo, i quali si sono confrontati su cinque argomenti principali: Cognition and NeuroscienceCommon SenseArchitecture, Ethics and morality,AI: Policy and Net Contribution.

È interessante considerare le osservazioni di esperti di discipline affini che, pur non sviluppando direttamente questi sistemi, offrono una prospettiva critica sulle possibili implicazioni di queste tecnologie rivoluzionarie. Nel suo intervento, Noam Chomsky, uno dei pionieri nello studio del linguaggio umano e della sua comprensione, solleva la questione che un sistema come Chat GP-3 potrebbe non avanzare necessariamente la comprensione umana del linguaggio. Esso potrebbe limitarsi a imitarlo “a scatola chiusa”, senza una reale comprensione dei meccanismi profondi e delle strutture che decenni di ricerca hanno evidenziato. Questi temi e riflessioni sono centrali nello sviluppo dei sistemi di intelligenza artificiale, poiché è facile lasciarsi affascinare dal comportamento complesso di un sistema meccanico e perdere di vista la domanda se si tratti di un vero progresso, o almeno di un progresso nella comprensione di noi stessi.

Uno dei limiti evidenti di questi sistemi è il controllo dei loro comportamenti. Essi imparano dai dati che vengono loro presentati, e le loro risposte, comprese quelle errate, sono difficilmente controllabili. È altrettanto difficile determinare il motivo per cui l’intelligenza artificiale manifesta un comportamento specifico che richiede correzione. Attualmente, l’unico meccanismo a nostra disposizione per aggiornare i modelli è simile a quello che si usa con un bambino: si fornisce un rinforzo negativo o positivo in base alla qualità della risposta. Tuttavia, come afferma Chomsky, è difficile definire il funzionamento di un’AI come comprensione del linguaggio e della nostra mente.

Altro tema di notevole importanza, affrontato durante l’evento a Montreal è il punto di vista sull’impatto socio-economico di queste tecnologie, soprattutto nel mondo del lavoro, è un tema centrale che in USA studiano da quasi dieci anni. Il libro “The Second Machine Age” di Erik Brynjolfsson Andrew McAfee ha fornito una visione interessante per comprendere il ruolo che le tecnologie digitali hanno nella trasformazione della nostra società. Nel libro citato, la trasformazione del mondo è inevitabilmente legata all’utilizzo di energia per svolgere lavoro e al controllo necessario per decidere come, dove e quando utilizzarla. In questo modello astratto ma convincente, risulta evidente che tutte le professioni legate al “controllo”, come molti lavori da ufficio, saranno soggette ad un cambiamento nei prossimi anni. Come è già avvenuto durante la prima rivoluzione industriale, assisteremo a una radicale trasformazione del mondo del lavoro.

Non posso fare a meno di riflettere sul discorso di fine anno del Presidente Mattarella sull’innovazione e sulla necessità di governarla anziché contrastarla. In questa prospettiva, a livello nazionale, dovremmo promuovere l’istituzione di osservatori e gruppi di lavoro in grado di monitorare questa rapida evoluzione tecnologica e di cercare di governare l’impatto che essa avrà sul sistema sociale e lavorativo, in modo da ridistribuire equamente il valore che inevitabilmente verrà generato.

Uno dei motivi per cui le automobili non si guidano ancora da sole è strettamente legato alla domanda su chi sia responsabile in caso di incidenti causati da automobili autonome”.

Definizione e Approccio all’AGI

Come detto, l’Artificial General Intelligence rappresenta uno dei traguardi più ambiziosi nell’ambito della macro-materia dell’intelligenza artificiale. 

Secondo l’articolo pubblicato su “ZeroUnoWeb“, per raggiungere l’AGI, gli esperti hanno proposto diversi approcci. Per approfondire questa tecnologia, che coinvolge non solo scienziati, ma anche filosofi e sociologi, possiamo fare riferimento all’Hype Cycle for Artificial Intelligence 2020 di Gartner. Nell’edizione del 2020, l’AGI ha raggiunto la fase di “innovation trigger”, che corrisponde all’annuncio di un’innovazione. La situazione è la stessa dell’edizione del 2019: a differenza di altre forme di intelligenza artificiale, l’AGI non ha mostrato progressi significativi ed è ancora oggetto di dibattito, che solleva interrogativi sul rapporto tra l’uomo e le macchine.

Come già detto, un sistema dotato di AGI è in grado di imitare il comportamento umano, apprendere e applicare conoscenze in diverse situazioni. Tuttavia, la comprensione e l’apprendimento esperienziale delle macchine sono ancora lontani dall’eguagliare quelli umani. Sebbene la strada per lo sviluppo di un dispositivo con AGI possa essere breve o lunga, sono stati proposti criteri per definirne il raggiungimento. Queste proposte cercano di formulare una definizione operativa dell’AGI. 

Ecco i criteri proposti, in ordine crescente di severità:

Test di Turing: noto anche come “il gioco dell’imitazione”, coinvolge tre partecipanti (un uomo, una donna e una terza persona). La terza persona deve indovinare il sesso degli altri due partecipanti, mentre l’uomo cerca di ingannarlo e la donna di aiutarlo. Se una macchina può sostituire l’uomo senza influenzare le risposte della terza persona, allora si può parlare di AGI. Tuttavia, questo criterio si è dimostrato debole, poiché chatbot come Eliza e Parry hanno già superato il test.

Test del caffè: misura la capacità di una macchina di preparare autonomamente il caffè, compiendo passo dopo passo tutte le azioni che farebbe una persona.

Test dello studente universitario robotico: simile a un test di intelligenza, prende come riferimento il processo di selezione universitaria, richiedendo all’IA di seguire le lezioni e ottenere una laurea.

Per poter essere considerata AGI, un’intelligenza artificiale deve padroneggiare una serie di capacità che le permettano di rispondere a queste aspettative. Alcune di queste competenze sono:

Comprensione del linguaggio naturale: l’AGI deve essere in grado di comprendere pienamente le parole pronunciate dagli esseri umani, non solo memorizzarle e analizzarle, ma anche interpretarle con “buon senso”. Attualmente, anche tentativi ammirabili come GPT-3 di OpenAI mancano di questa capacità.

Percezione sensoriale: sebbene ci siano progressi nella visione artificiale grazie all’apprendimento profondo, i sistemi di intelligenza artificiale non possono ancora replicare la percezione umana dei suoni e dei colori. Ad esempio, i sistemi di guida autonoma faticano a riconoscere con chiarezza un segnale di stop rosso con adesivi sopra, e le macchine intelligenti non sono in grado di capire da sottofondi audio dove si trova una persona, come invece può fare un essere umano.

Abilità motorie raffinate: ci sono stati progressi nella manualità dei robot grazie all’apprendimento per rinforzo, ma siamo ancora lontani dal replicare la destrezza con cui gli esseri umani maneggiano oggetti complessi. Ad esempio, i test vengono spesso eseguiti utilizzando il cubo di Rubik.

Classificando le diverse tecnologie di intelligenza artificiale in base alla loro capacità di imitare le caratteristiche umane, possiamo identificare tre livelli. L’artificial general intelligence occupa il secondo livello, mentre i livelli rimanenti sono rappresentati dall’intelligenza artificiale debole (weak AI) e dalla superintelligenza artificiale. La weak AI rappresenta l’unico livello raggiunto finora ed è focalizzata sull’esecuzione di compiti specifici, come il riconoscimento facciale, vocale, la guida di veicoli o la ricerca su Internet. Questi compiti sono eseguiti in modo eccellente grazie deep learning, ma non possono essere estesi o combinati con altre competenze. La superintelligenza artificiale è ancora oggetto di ipotesi ed è immaginata come macchine in grado di passare agilmente da un compito all’altro, superando l’AGI. Inoltre, tali macchine sarebbero consapevoli di sé e più abili e intelligenti delle persone in tutti i campi, come matematica, scienza, sport, arte, medicina, hobby ed emozioni relazionali.

Queste fantasie sollevano anche timori e interrogativi. Anche se la creazione di macchine dotate di superintelligenza artificiale è ancora lontana, c’è chi si chiede come queste macchine si comporterebbero se fossero programmate per compiere azioni devastanti o se sviluppassero metodi distruttivi per raggiungere i loro obiettivi. Le generazioni future di scienziati che potrebbero lavorare su questo tipo di intelligenza artificiale dovranno prestare attenzione e assicurarsi che gli obiettivi e i metodi dell’AI superintelligente siano allineati con gli interessi umani, considerando l’efficienza e la determinazione con cui tali macchine potrebbero operare.

La comunità scientifica è coinvolta in un dibattito aperto sulla realizzazione dell’artificial general intelligence, ma molti concordano sul fatto che, indipendentemente dalla tempistica incerta, è importante prendere in considerazione le sue caratteristiche, limitazioni, meccanismi e possibili impieghi fin da ora, data la potenziale portata rivoluzionaria che potrebbe avere. Di fatto, parallelamente ai dibattiti etici e filosofici, si stanno conducendo ricerche scientifiche per avvicinarsi all’artificial general intelligence. Uno degli approcci sperimentali utilizza il transfer learning, consentendo alle intelligenze artificiali di utilizzare parte dell’addestramento acquisito per un compito per apprenderne uno nuovo. Resta invece ancora aperto il dibattito tra l’IA simbolica e l’apprendimento automatico. L’IA simbolica si basa sulla manipolazione di simboli per elaborare le informazioni che riceviamo attraverso i nostri sensi e prendere decisioni. Tuttavia, questo approccio funziona solo finché un compito può essere codificato in regole e non riesce a considerare la complessità del mondo reale. Al contrario, l’apprendimento automatico permette ai sistemi di intelligenza artificiale di sviluppare comportamenti sulla base dell’esperienza, il che li rende adatti a gestire dati disordinati e non tabulari, come immagini e file audio, e ad affrontare l’incertezza e i repentini cambiamenti. Tuttavia, l’apprendimento automatico non è ancora in grado di generalizzare le proprie capacità e ragionare sul mondo come fanno gli esseri umani. Pertanto, un approccio ibrido che combini reti neurali e sistemi basati su regole sembra essere uno dei modi più promettenti per realizzare un’intelligenza artificiale generale.

Non dimenticare di iscriverti all’evento da qui:

https://app.singularityumilan.com/event/incontro-52/info

Microsoft sostiene di essere a un passo dall’AGI: L’evoluzione delle intelligenze artificiali verso la sentienza

Ad aprile di quest’anno, Microsoft ha pubblicato un articolo scientifico di grande rilievo in cui afferma che il suo nuovo sistema di intelligenza artificiale (IA) rappresenta un importante passo verso l’Artificial General Intelligence (AGI), ovvero una macchina in grado di eseguire tutte le attività che un cervello umano può compiere. L’articolo, intitolato “Sparks of Artificial General Intelligence“, è stato pubblicato su Internet Research Repository e dichiara nella sua prima pagina: “Riteniamo che le capacità di GPT-4 possano ragionevolmente essere considerate come una versione iniziale (sebbene ancora incompleta) di un sistema di Artificial General Intelligence“. Gli autori dell’articolo sostengono che GPT-4 sia parte di una nuova generazione di modelli linguistici di grandi dimensioni, tra cui ChatGPT e PaLM di Google, che dimostrano un’intelligenza più generale rispetto ai modelli precedenti di intelligenza artificiale.

I ricercatori hanno dimostrato che la rete neurale può risolvere problemi complessi e nuovi senza richiedere sollecitazioni specifiche, sia nel campo della matematica, della medicina, del diritto che della psicologia. La dichiarazione così audace di Microsoft ha scatenato un acceso dibattito nell’industria tecnologica: l’industria sta effettivamente costruendo un sistema simile all’intelligenza umana? Oppure alcune delle menti più brillanti del settore stanno lasciando correre la loro immaginazione?

L’articolo di Microsoft tocca un argomento che i tecnologi hanno affrontato e temuto per decenni. Se fosse possibile creare una macchina che funzioni come il cervello umano, o addirittura meglio, potrebbe cambiare radicalmente il mondo. Circa cinque anni fa, aziende come Google, Microsoft e OpenAI hanno iniziato a sviluppare modelli linguistici di grandi dimensioni, noti come LLM. Questi sistemi analizzano spesso per mesi enormi quantità di testo digitale, tra cui libri, articoli di Wikipedia e chat room. Attraverso l’identificazione dei modelli presenti in questo testo, apprendono a generare il proprio testo, inclusi saggi, poesie e codice informatico, e possono persino sostenere una conversazione.

Il sistema su cui hanno lavorato i ricercatori di Microsoft, GPT-4 di OpenAI, è considerato il più potente di questi sistemi. Microsoft è un partner stretto di OpenAI e ha investito 13 miliardi di dollari nella società con sede a San Francisco.

Tra i ricercatori c’era il dottor Bubek, 38 anni, ex professore presso la Princeton University. Uno dei primi esperimenti condotti dal dottor Bubek e dai suoi colleghi è stato chiedere a GPT-4 di produrre una dimostrazione matematica dell’esistenza di un numero infinito di numeri primi. La dimostrazione matematica prodotta dal sistema è stata così impressionante, sia dal punto di vista matematico che linguistico, che il dottor Bubek ha faticato a credere con chi stava effettivamente comunicando. 

In quel momento, mi sono chiesto: cosa sta succedendo?“, ha dichiarato in un seminario presso il Massachusetts Institute of Technology lo scorso marzo. Durante diversi mesi di ricerca, il dottor Bubek e i suoi colleghi hanno documentato il comportamento complesso del sistema e hanno ritenuto che dimostrasse una “comprensione profonda e flessibile” dei concetti e delle abilità umane. Quando le persone utilizzano GPT-4, rimangono sbalordite dalle sue capacità di generare testo. Tuttavia, si è scoperto che il sistema analizza, sintetizza, valuta e giudica il testo in modo molto più accurato rispetto alla sua capacità di generarne.

I ricercatori in seguito hanno anche chiesto al sistema di analizzare il loro peso, altezza e risultati degli esami del sangue per determinare se fossero a rischio di diabete. Infine, hanno chiesto al sistema di scrivere un dialogo socratico che esplorasse gli abusi e i pericoli dei modelli linguistici di grandi dimensioni. GPT-4 è riuscito a eseguire tutte queste richieste dimostrando una comprensione sorprendente di campi così diversi come politica, fisica, storia, informatica, medicina e filosofia, unendo le sue conoscenze.

L’AGI nel Futuro

L’Artificial General Intelligence (AGI) è un campo in continua evoluzione e nel 2022 si sono registrati importanti sviluppi. Secondo l’articolo pubblicato su “Tech4Future“, l’anno 2022 ha rappresentato un periodo di significativi progressi nell’ambito dell’AGI. Diversi progetti e ricerche hanno contribuito ad avanzare le conoscenze e le capacità dell’AGI, aprendo nuove opportunità e sfide. L’AGI è un obiettivo ambizioso, estremamente complesso e richiede approcci avanzati come il Deep Learning, che si basa sulle reti neurali profonde per simulare il funzionamento del cervello umano. Il Deep Learning ha dimostrato risultati significativi in vari settori, come la guida autonoma, il riconoscimento del linguaggio naturale, il riconoscimento delle immagini e le raccomandazioni contestuali. Tuttavia, l’approccio attuale presenta limiti quando si tratta di affrontare la complessità del cervello umano e la sua capacità di risolvere una vasta gamma di problemi in modo indistinto.

L’AGI inoltre, richiederà nuovi approcci e tecnologie, come ad esempio il Quantum Computing, per superare le sfide computazionali e l’articolazione dei modelli necessari per emulare il comportamento e la complessità del cervello umano.

Quando sarà raggiunta l’AGI è ancora incerto, e gli esperti hanno opinioni divergenti. Secondo un’indagine condotta da Martin Ford, la data media prevista per la diffusione significativa dei sistemi AGI potrebbe essere intorno al 2099. Tuttavia, si è ancora cauti nelle previsioni e alcuni ritengono che siano ancora necessari importanti progressi, come il trasferimento di conoscenza tra sistemi e l’apprendimento non supervisionato.

Ne parleremo durante il nostro evento: https://app.singularityumilan.com/event/incontro-52/info

Autore: Riccardo D’Iglio