Quali sono i problemi della AI — Parte 2

Cinque problemi insiti nell’AI generativa che è importante conoscere

Chi promuove le AI generative vorrebbe condirci ogni cosa, ma attenti a non fare indigestione. Ho preparato un doppio articolo, dove analizzo alcuni dei problemi più rilevanti. In questa seconda parte esaurisco gli ultimi punti rimasti in sospeso, corredati di conclusioni.

Prima di leggere questo articolo assicurati di aver letto la prima parte, dove sono stati analizzati i primi tre problemi. Se sei già in pari, procediamo!

Problema 4 — L’AI non è sempre in grado di fornire le sue fonti

ChatGPT riporta cose selezionando determinate parole, ma non è sempre in grado di indirizzarmi verso una fonte di conferma puntuale di quelle stesse parole. Il suo feedback è un impasto di contenuti, ma non rispecchia né valorizza fino in fondo la complessità degli originali dai quali attinge.

Basare le proprie conoscenze limitandosi a queste “polpette” artificiali ha lo stesso valore del sentito dire. È come affidarsi alle storie di amiocuggino, alle chiacchiere da bar o al “l’ho letto su Facebook”, come si dice in questo video di Raffaele Gaito. A proposito, guardate il video per scoprire altri bias di ChatGPT.

Quando si fa ricerca e si devono citare delle fonti, le parole sono importanti. Farsi raccontare da ChatGPT cos’ha scritto un certo autore è diverso da leggere le sue parole esatte. Il commento di una fonte non è sostituibile alla fonte stessa perché non ne preserva l’identità, ma la espande con i contributi di altri. E questi possono essere più o meno attendibili.

La correttezza di un’informazione passa anche dalle parole utilizzate. Cambiandole, si rischia di travisare la volontà comunicativa dall’autore. Purtroppo l’AI non si fa troppi problemi a giocare con le parole.

Oggi l’AI è torbida. Perdere il contatto con le fonti primarie scritte dalle persone, senza conoscere i meccanismi che regolano queste rielaborazioni, è pericoloso. Si rischia di credere a parole messe in bocca a chi ha detto tutt’altro.

In alcuni casi si è cercato di risolvere parte del problema della trasparenza con il cosiddetto Chain-of-Thought, una procedura che espone all’utente i “ragionamenti” che portano a una risposta. Purtroppo, queste spiegazioni non corrispondono sempre ai processi realmente attuati dall’AI. Se ne parla in questo articolo di Anthropic dove vengono riassunti alcuni test condotti sulla loro AI, Claude.

Tuttavia, il problema delle fonti e dell’attendibilità delle informazioni è una questione vecchia, che precede le AI. Si può dire che l’esperienza e la capacità critica continuano a essere componenti essenziali delle quali non dobbiamo privarci neppure di fronte alla comodità dell’AI.

Problema 5 — L’AI copia se stessa e i contenuti saranno sempre più artificiali

A mano a mano che le AI inizieranno a produrre più contenuto delle persone reali, più è probabile che le AI stesse verranno allenate con questo “cibo artificiale”. Immaginate quindi che l’AI si alleni a imitare se stessa, partendo ad una base di partenza molto meno preparata di tante persone competenti nella scrittura. Potremmo infilarci in una spirale di contenuto sempre più omogeneo e povero di sfumature. Nella peggiore delle ipotesi, come si è visto, anche ricco di errori.

Qualcuno dirà: nulla di nuovo. Su Internet, scrivere correttamente e in modo chiaro, con stile genuino e originale, senza dati sbagliati o semplificazioni fuorvianti, non è diffuso a ogni livello. Le informazioni che cerchiamo molto spesso sono già parcellizzate e approssimate in qualche modo. Video, blog, Wikipedia, etc… Nessuno escluso.

Le persone hanno sempre preso ispirazione dal lavoro altrui (a volte proprio copiando) e hanno sempre selezionato le informazioni, fuorviandone l’essenza originaria. Che sia per necessità stilistiche, ignoranza, distrazione o malafede, poco importa. Succede nell’arte, nel design, nella letteratura e non solo. È sempre accaduto, accade e continuerà ad accadere, con o senza AI.

L’AI ha difetti molto umani

Nel complesso abbiamo analizzato cinque problemi, sviscerando anche alcuni punti a corollario. L’AI generativa si frappone tra gli utenti e i creators, inventa dati o li travisa, non è onnisciente, parcellizza la realtà, non è sempre in grado di fornire le sue fonti e rischia di auto-alimentare i suoi stessi errori.

In tutto questo, l’AI è davvero figlia dell’essere umano, perché tutte queste caratteristiche sono proprie anche di tantissime persone e delle realtà lavorative e formative da loro gestite.

Nella mia esperienza, in molti contesti, questi sono stati aspetti ricorrenti delle interazioni con gli altri e con il prodotto delle loro attività intellettuali/lavorative. Le persone spesso sono distratte, prendono decisioni irrazionali (o spinte da motivazioni che non capiamo) e sono influenzate da ideologie e bias. A volte semplicemente non sono abbastanza qualificate per garantire particolari livelli qualitativi. Sottrarci a queste dinamiche, agendole o subendole, è difficile per ciascuno di noi.

Conclusioni

La prospettiva appena descritta è rincuorante, perché ci ricorda che questi nuovi strumenti non stanno stravolgendo le regole di una realtà perfetta. Tutt’altro, il mondo del rapporto tra persone e informazione era già complesso e problematico prima dell’arrivo dell’AI. E forse questa è la vera notizia un po’ avvilente.

Al di là degli allarmismi e dei sensazionalismi sollevati dall’avvento delle AI, la coscienza critica rimane la vera bussola per navigare in queste acque. Una risorsa indispensabile che va coltivata imparando come funzionano questi strumenti. È stato vero per tanti altri media e lo sarà anche per le AI.

Al netto delle considerazioni fatte, l’aspetto più preoccupante e che continua a emergere è la possibile convergenza — di almeno una parte — della popolazione verso un sistema accentrante, quando si tratta di prendere informazioni. La presenza di un intermediario opaco unico, di cui si dovrebbe diffidare, per svariate implicazioni, che possono essere: politiche, ideologiche, identitarie, etc.

Tuttavia, questo ultimo punto è ulteriormente complesso. Abbiamo già visto fenomeni simili con piattaforme come Facebook e Twitter. Inoltre, ChatGPT e AI Overviews sono solo una parte di questa tecnologia in evoluzione. Ci sono altri contesti lavorativi in cui l’impiego di tool simili — ma molto specializzati su attività precise — prende connotati meno politicamente distopici e di evidente supporto all’uomo. Come sempre, non esiste una chiave di lettura univoca e ogni contesto meriterebbe le sue precisazioni.

Infine, bisogna considerare anche altre possibilità: L’intelligenza artificiale è una bolla? È quello che mi sono chiesto in questo articolo, portando alcuni dati.

Se sei interessato a scoprire di più su queste tecnologie, contattaci. Possiamo offrirti interessanti spunti di riflessione e consigliarti le soluzioni software più indicate per i tuoi progetti. Proponiamo anche consulenze sull’AI, integrazioni con LLM, sistemi RAG e altre soluzioni. Chissà, forse il tuo problema può essere risolto anche senza l’impiego di AI!