Quali sono i problemi della AI — Parte 1

Cinque problemi insiti nell’AI generativa che è importante conoscere

Le AI generative stanno comparendo ovunque e sembrano il candidato sostituto di Google, sotto steroidi. Sono veloci e comode, niente ads e dritte al punto. Per molte attività sono utili ma non mancano alcune insidie dalle quali bisogna sapersi difendere. In questo articolo, diviso in due parti, ne esploriamo cinque.

Da mesi, vari temi affollano la mia testa. Sedimentati come risultato di articoli letti, video guardati e discussioni con amici e colleghi. Mentre scrivevo l’articolo L’intelligenza artificiale è una bolla?, mi sono reso conto che c’era altro da dire. In particolare, dopo essermi imbattuto casualmente in questo video del canale Youtube SmartWorld, mi sono deciso a scrivere ancora.

Mi sono limitato a cinque punti importanti, unendo esperienze personali con ChatGPT e suggestioni assorbite negli ultimi anni. Sono certo che possiate trovare riscontro di quanto scrivo anche altrove, o forse lo avete già vissuto. Partiamo proprio da un aspetto critico discusso dai ragazzi di SmartWorld.

Problema 1 — L’AI toglie visualizzazioni ai creatori di contenuti

Secondo un articolo di Danny Goodwin pubblicato su Search Engine Land, il report 05/24-05/25 di BrightEdge segnala che il click-through rate (CTR) delle ricerche su Google è calato del 30%, tra il 2024 e il 2025. Il motivo è stato individuato in AI Overviews, la funzionalità AI integrata in cima ai risultati del motore di ricerca.

L’utente non deve più scegliere un sito ed esplorarlo. AI Overviews esamina le richieste e fornisce una risposta, elaborando i dati raccolti da internet. In sintesi: Google toglie traffico ai siti di chi crea contenuti.

La cosa è problematica almeno per due motivi. I siti che monetizzano grazie agli ads pubblicitari — che funzionano per clic e visualizzazioni — vedranno diminuire i loro introiti. Tutti i siti non più visitati vedranno la loro brand awareness indebolita, in quanto meno utenti verranno in contatto diretto con gli elementi distintivi della loro immagine e dei loro contenuti.

AI Overviews appiattisce l’informazione. Per gli utenti meno curiosi sarà sempre più difficile scoprire chi ha risolto il loro problema, perché l’AI farà da portavoce. Certo, Google potrebbe comunque fornire le sue fonti, ma gli utenti avranno ancora interesse a visitarle? È un tema sul quale interrogarsi.

Secondo una dichiarazione di Danielle Coffey, presidente e CEO di News/Media Alliance, “i link erano l’ultima qualità redimente della ricerca che dava agli editori traffico e guadagni. Ora Google prende i contenuti con la forza e li usa senza alcun ritorno, la definizione di furto. I rimedi del DOJ [Department of Justice] devono affrontare questo problema per evitare che un’unica azienda continui a dominare internet”.

Sempre secondo BrightEdge, ci sono anche dati positivi. Ad esempio, i siti posizionati su Google al ventesimo posto o dopo, hanno visto un incremento di citazioni del 400% da parte di AI Overviews. Tuttavia, il dato chiave resta il numero di visite ai siti e BrightEdge non ha indicato quante di queste citazioni sono state convertite in clic degli utenti. “Dettagli” come questo invitano alla cautela. Il business di BrightEdge ruota intorno alla SEO, ma l’azienda promuove anche strumenti con integrazioni AI e la presenza di un possibile conflitto d’interessi andrebbe indagata. Per tutti i dettagli vi invitiamo a leggere il report al link più sopra.

Google avrà interessi nell’integrare soluzioni in grado di controbilanciare efficacemente questo cambiamento? Vedremo cosa ci riserva il futuro.

Problema 2 — L’AI inventa dati e informazioni

Con me, l’AI ha sbagliato più volte. Nel tempo libero mi occupo di ricerca storica. Leggo manoscritti, libri antichi, paper accademici e altro. Ho anni di esperienza alle spalle ma pensavo che ChatGPT potesse velocizzare le ricerche, fornendo i dati di base per esplorare nuovi argomenti.

Ad esempio, ChatGPT ha inventato o sbagliato nomi di autori e libri. Ogni tanto faccio nuovi tentativi, ma la fiducia si è incrinata velocemente. Anche alcuni miei collaboratori hanno riscontrato problemi simili. Errare è umano e, in questo caso, anche software, a quanto pare.

ChatGPT agisce con nonchalance. Non divide esplicitamente le “deduzioni” personali dai dati con fonte accertata. Se la interrogo, l’AI può girare intorno al problema e sviare dalla richiesta di risposte più precise. Infine, se messa alle strette da domande incalzanti, corregge le sviste o svela il suo bluff. Spesso si deve rimanere vigili e scettici, consapevoli che l’onere della prova dovrebbe essere a carico dell’AI.

Questo fenomeno è stato battezzato AI Hallucinations (ma ad alcuni il nome non piace) e accade perché l’AI generativa non è una tecnologia dall’output deterministico. Non è in grado di riconoscere un contenuto “vero” o “falso”. Le informazioni vengono selezionate ed elaborate per offrire all’utente un output che risulti attendibile e comprensibile per probabilità statistica. Date queste regole, il margine d’errore non tarda a manifestarsi. Forse, su alcuni temi è più probabile che in altri.

Recentemente, si è parlato di AI Hallucinations e della sua inaffidabile incidenza percentuale in un articolo del New York Times di Cade Metz e Karen Weise e in un articolo di Forbes di Conor Murray. Ne consiglio la lettura per approfondire l’argomento. Magari condita dai commenti di questo thread Reddit, dove la community si confronta sull’articolo di Metz e Weise.

Se volete conoscere come funzionano le AI Hallucinations, leggete questo articolo di Anthropic su Claude, la loro AI. L’articolo è denso di informazioni, ma potete scrollare direttamente alla sezione in questione.

Certo, anche le persone sbagliano. Anche un articolo di blog può mettere delle fesserie nero su bianco (questo stesso articolo sarà salvo da qualche errore o approssimazione? Forse no). Il problema reale, forse, è l’appiattimento dell’informazione a una voce unica, che sovrasta e ingloba tutte le altre.

Problema 3 — L’AI non ha una conoscenza illimitata

Questo ci porta a un altro problema. I database dai quali attingono le AI, per quanto grandi, non sono sconfinati. La loro capacità di raggiungere le informazioni ha dei limiti tecnici. Quali dati vengono considerati, se e come possono essere “digeriti” dall’AI, sono tutti aspetti che influenzano le risposte.

Cosa riesce a “mangiare” una AI? Database, documenti pdf, pagine web scansionate da un crawler che raccoglie dati, video, ebook… L’AI ha accesso solamente a porzioni limitate di realtà, a seconda di cosa è stata programmata per elaborare. Anche senza AI, come persone abbiamo comunque accesso solo a porzioni di realtà. È sempre un gioco di insiemi e sottoinsiemi. Ad esempio, non abbiamo accesso ai dati della CIA e questo probabilmente influenza la nostra percezione della geopolitica attuale.

Paradossalmente, le facoltà della AI sono più limitate di quelle di molti di noi, perché la maggior parte delle persone è in grado di accedere e fruire contenuti, a prescindere dal loro formato. L’AI non è più “intelligente” di noi, ma ci batte perché ha più tempo per assorbire informazioni ed è estremamente più veloce nel condividerle con chi le chiede.

La mia esperienza rende evidente un punto. Ci sono informazioni che, in quanto persona, sono in grado di reperire autonomamente, ma che ChatGPT non conosce minimamente. Ed è probabile che ci siano tanti altri campi d’indagine in cui questi strumenti sono ancora carenti.

Questo accade perché molto materiale specialistico o accademico è tuttora appannaggio di libri cartacei e paper, spesso non raggiungibili dal web, accessibili dietro a un paywall, per pirateria, o per conoscenza diretta tra le persone. Questo non significa che in futuro questa cosa non possa cambiare.

Per ora, è al contempo problematico e limitante. Più sono esperto di un argomento, più è probabile che l’AI non riesca a soddisfare il mio livello di competenza. Meno ne so, più è facile che io cada vittima dei suoi limiti, per mera fiducia e distorto senso di autorevolezza nei suoi confronti.

Secondo la terza legge dello scrittore britannico Arthur C. Clarke “qualunque tecnologia sufficientemente avanzata è indistinguibile dalla magia”. In un certo senso, l’AI generative è quasi magica. Tanti fruitori non sanno come funziona. Il suo avvento potrebbe spingere una parte della popolazione a un’eccessiva fiducia nei suoi confronti. Una “fede” nella sua verità, spinta dalla comodità. Un atteggiamento reticente all’esposizione al dubbio, che si colloca tra l’accettazione di un dogma religioso e l’abbandono a forze soprannaturali insondabili e onniscienti.

Troppo apocalittico? Forse sì, suona molto catastrofico. L’informazione parziale, erroneamente rielaborata, anche con fare malevolo non ha mai risparmiato giornali, TV e altri media. Siamo sempre noi a decidere a che pozzo abbeverarci. Se fidarci ciecamente o verificare le fonti e i ragionamenti. Questa è solo l’ennesima iterazione sul tema.

Quindi, qualcuno potrebbe chiedersi: alla fine, cosa cambia? Anche in questo caso, il problema reale sembra risiedere nell’accentramento unificante insito nella struttura dell’AI. Una struttura unica opaca, che rischia di sostituirsi alle voci di chi i contenuti li crea, indebolendo il loro impatto sul mondo reale.

Eccoci arrivati alla fine del “primo tempo”. L’articolo era molto lungo e per evitare di renderlo troppo pesante l’ho diviso in due parti. Se vuoi, fai una piccola pausa e poi leggi gli ultimi due problemi e le mie conclusioni, nella seconda parte.