L’AI nel 2024: un altro inverno in arrivo?

Rodney Brooks, esperto di AI, prevede un periodo difficile per l’AI nel 2024, con un possibile inverno tecnologico. I Large Language Models (LLM) come ChatGPT-3 potrebbero non essere all’altezza delle aspettative.

An artist’s illustration of artificial intelligence (AI). This image visualises an artificial neural network as physical objects. The complex structure represents a network of information whilst colour represents data being fed through the system. It was created by Rose Pilkington as part of the Visualising AI project launched by Google DeepMind.

Large language models were all the rage in 2023, but has their future been oversold? (Rose Pilkington/Google DeepMind/Unsplash.)

L’anno 2023 ha visto un’enorme eccitazione intorno all’intelligenza artificiale (AI). Dopo il suo lancio alla fine del 2022, ChatGPT-3 ha reso l’AI accessibile e veramente utile al grande pubblico, stimolando lo sviluppo di molti altri Large Language Models (LLM) da parte delle principali aziende di Silicon Valley. L’AI è stata il tema principale dell’anno scorso, ma potrebbe entrare in una fase di stagnazione?

Rodney Brooks, ex direttore del Computer Science and Artificial Intelligence Laboratory al MIT, è convinto di ciò. Brooks, che commenta regolarmente i progressi (o la mancanza di essi) della tecnologia, ha pubblicato le sue previsioni su auto a guida autonoma, viaggi spaziali umani e, ultimo ma non meno importante, robotica, AI e machine learning dal 2018. Ha promesso di continuare a fare previsioni ogni anno fino al 2050, quando compirà 95 anni.

Nelle sue ultime previsioni, Brooks ha affermato che il 2024 non sarà un periodo d’oro per l’AI, notando che l’attuale entusiasmo sta seguendo un ciclo di hype ben noto che abbiamo visto ripetersi più volte nei più di 60 anni di storia dell’AI.

“Preparatevi per un periodo difficile. Potrebbe esserci un altro inverno dell’AI, e forse anche un inverno tecnologico su larga scala, proprio dietro l’angolo. E farà freddo”, ha concluso Brooks.

Brooks è tutto tranne che un pessimista luddista. Studia l’AI dagli anni ’70 ed è considerato uno degli esperti più talentuosi al mondo in robotica e intelligenza artificiale. Se sembra cinico, è semplicemente perché ha già visto tutto: tutta la pubblicità, le delusioni, le false promesse e i contraccolpi. Basta dare un’occhiata alle sue previsioni precedenti per vedere che spesso ha ragione nelle sue profezie tecnologiche.

Quando parla di AI nelle sue previsioni per il 2024, Brooks si riferisce ai LLM, ai sistemi di chatbot come ChatGPT e ad altri sviluppati da Bing e Google’s Deep Mind. Sebbene ritenga che questi sistemi di AI siano capaci di alcune imprese impressionanti, pensa che non abbiano la capacità di diventare un’intelligenza artificiale generale onnipotente e rivoluzionaria. Secondo lui, mancano loro vera immaginazione e sostanza autentica.

“Incoraggio le persone a fare cose positive con i LLM, ma a non credere all’arroganza che la loro esistenza significhi che siamo sull’orlo di un’intelligenza artificiale generale”, ha aggiunto Brooks.

“C’è molto di più nella vita dei LLM.”

Parlando in un’intervista con IEEE Spectrum, Brooks approfondisce le sue critiche, spiegando come i LLM avanzati commettano ancora regolarmente errori quando vengono incaricati di compiti di codifica relativamente semplici.

“Risponde con grande sicurezza a qualsiasi domanda gli venga posta. Dà una risposta con totale sicurezza e io tendo a credergli. E la metà delle volte, è completamente sbagliato. E passo 2 o 3 ore seguendo quel suggerimento, e poi mi rendo conto che non funziona, e lui semplicemente passa a fare qualcos’altro. Ora, questo non è intelligenza. Non è interazione. Sta solo cercando su internet”, ha detto Brooks.

In definitiva, secondo lui, i LLM hanno ancora molta strada da fare prima di poter essere considerati qualcosa di simile a un’intelligenza artificiale generale completamente sviluppata, perché sono solo abili manipolatori di parole, non esseri super intelligenti. Se le sue riflessioni sono accurate, lo stesso potrebbe valere per GPT-5, GPT-6 e oltre.

“Non hanno un modello sottostante del mondo. Non hanno alcun collegamento con il mondo. Sono solo una correlazione tra il linguaggio”, ha spiegato Brooks.

“Ciò in cui i grandi modelli di linguaggio sono bravi è dire come dovrebbe suonare una risposta, cosa diversa da come dovrebbe essere una risposta”, ha aggiunto.

Links: rodneybrooks.comlatimes.comrodneybrooks.comieee.org