AI Overviews: Rischi e Problemi nell’Intelligenza Artificiale di Google

AI Overviews di Google delude con risposte errate e comiche, mettendo in discussione l’affidabilità. Problemi di discernimento tra informazioni serie e satire, con implicazioni ambientali. Necessità di maggiore precisione nell’utilizzo dell’IA.

immagine dell'articolo
Google AI Overviews sembra avere alcuni grossi problemi di crescita. (Marco Lazzarini/Shutterstock.com)

Google ha recentemente lanciato AI Overviews, una funzione che, purtroppo, non sta ottenendo i risultati sperati. La novità è stata introdotta negli Stati Uniti la scorsa settimana e si prevede che sarà disponibile globalmente entro la fine del 2024. Tuttavia, i feedback finora ricevuti suggeriscono che si tratti di un vero disastro.

AI Overviews è uno strumento sperimentale che, una volta inserita una query, fornisce un risultato generato dall’intelligenza artificiale. Gli algoritmi di machine learning non hanno coscienza e sono addestrati a riconoscere parole e frasi in determinati contesti. Pertanto, quando vengono interrogati, creano una risposta che si adatta alla query, anche se ciò significa inventare informazioni.

Il problema principale risiede nel fatto che l’IA non è in grado di distinguere tra risposte serie e satiriche o comiche. Questo porta a situazioni imbarazzanti, come quando suggerisce di mangiare un sasso al giorno secondo un articolo satirico di The Onion o di utilizzare colla commestibile per far aderire meglio il formaggio alla pizza, un consiglio proveniente da un post di Reddit di oltre 11 anni fa.

Un portavoce di Google ha minimizzato gli incidenti, definendoli come casi isolati e poco rappresentativi dell’esperienza della maggior parte degli utenti. Tuttavia, la diffusione di informazioni errate, come la falsa affermazione che Barack Obama sia stato il primo presidente musulmano degli Stati Uniti, solleva seri dubbi sull’affidabilità di AI Overviews.

La questione diventa ancora più critica quando si considera l’impatto ambientale dell’IA, con un’importante impronta di carbonio associata al suo funzionamento. Anche aziende come Microsoft, fortemente impegnate nell’ambito dell’IA, sono state criticate per non rispettare i propri obiettivi di neutralità carbonica a causa delle attività legate all’intelligenza artificiale.

Un esempio lampante dell’inadeguatezza di AI Overviews è la confusione tra il fungo dell’angelo distruttore e un innocuo fungo champignon bianco da parte dell’IA Gemini di Google. Questo errore potenzialmente pericoloso evidenzia la necessità di una maggiore precisione e controllo nell’utilizzo dell’intelligenza artificiale.

Nonostante i rischi e le problematiche evidenziate, AI Overviews continua a fornire consigli discutibili e talvolta comici, grazie alla sua incapacità di discernere tra informazioni attendibili e satire. È quindi fondamentale mantenere un atteggiamento critico e fare ricerche indipendenti per verificare la veridicità delle informazioni fornite dall’IA.

Links: