Google introduce panorami di IA nei risultati di ricerca: rischi e polemiche

Google implementa panorami di IA nei risultati di ricerca, generando polemiche sull’origine dei contenuti e la qualità dell’informazione. Espansione prevista a livello globale.

immagine dell'articolo
Molti cambiamenti stanno arrivando a Google. (Il Pancake del Paradiso! tramite Wikimedia Commons (CC BY-SA 4.0))

Google ha recentemente lanciato una serie di aggiornamenti nell’ambito dell’intelligenza artificiale (IA) per competere con aziende più piccole come OpenAI. Tra le novità introdotte, spicca la possibilità per gli utenti, inizialmente negli Stati Uniti, di visualizzare panorami generali sull’argomento cercato direttamente nei risultati di ricerca, anziché una lista di siti web.

Questa nuova funzionalità ha generato alcune polemiche, non tanto per timori legati a IA ribelli o all’intelligenza artificiale generale (AGI), ma per motivi simili a quelli che hanno portato a proteste contro i grandi modelli di linguaggio e le IA generatrici di immagini. In passato, quando si cercava qualcosa su Google, si otteneva un elenco di pagine web selezionate dagli algoritmi, scritte da esseri umani e che permettevano loro di guadagnare attraverso entrate pubblicitarie o modelli di abbonamento.

Ora, con i panorami di IA, si potrebbe trovarsi di fronte a un riassunto dell’argomento creato tramite addestramento sul lavoro altrui. Questi panorami includono collegamenti a risorse che approfondiscono l’argomento, consentendo alle persone di esplorare una vasta gamma di contenuti da diverse fonti. Tuttavia, c’è il rischio che gli utenti si limitino a leggere il riassunto senza approfondire, interrompendo una fonte di reddito per coloro che producono contenuti su quegli argomenti.

Alcuni esperti mettono in guardia sul fatto che i modelli di IA, basati su testi creati dall’uomo per l’addestramento, potrebbero risentire di una mancanza di dati reali freschi, portando a una diminuzione della qualità e della diversità nel tempo. Questo fenomeno è stato definito Disturbo dell’Autofagia del Modello (MAD) e potrebbe compromettere l’efficacia dei modelli generativi.

Gli utenti hanno segnalato errori nei riassunti di IA di Google, come fraintendimenti di citazioni letterarie e informazioni errate su argomenti scientifici. Attualmente non esiste un modo per disattivare completamente l’assistente IA di Google, ma è possibile selezionare la scheda web per visualizzare solo i risultati provenienti da fonti umane.

Questa funzionalità è attualmente in fase di implementazione negli Stati Uniti, con progetti di espansione in altre parti del mondo nei prossimi mesi.

Links: