La natura dell’IA. Un fantastico aggregatore linguistico. Nulla più!

La natura dell'IA. La si avvicina all'umano. In realtà è semplicemente un assemblatore fantastico di linguaggio

22 febbraio 2026 21:16
La natura dell’IA. Un fantastico aggregatore linguistico. Nulla più! -
Condividi

La natura dell'IA. Aggregatore straordinario di frasi

La natura dell'IA. Si diffonde l'idea che sia assimilabile all'uomo. Non è così. La definizione si simil-umano, ci restituisce una differenza non solo quantitativa, ma anche qualitativa. Eppure molti sono convinti che le sue risposte coerenti e ormai prive di sgrammaticature siano la prova che ci troviamo di fronte a un alter ego. Il fenomeno è stato coniato con il termine di epistemia. Il suo significato è legato al filtro dell'IA tra la realtà e il soggetto. In sintesi, le risposte dell'IA ben confezionate, perché plausibili, ci convincono che siano vere, aderenti concettualmente alle nostre richieste e soprattutto come scrivevamo qualche riga sopra, ci educano a considerare intelligente il nostro interlocutore. Pertanto consideriamo inutile il controllo e l'affidabilità della risposta. Al momento il mondo della scuola non sembra adeguatamente interessato al cambio di paradigma, concretizzato nel passaggio da un episteme classico, dove è presente il pensiero riflessivo e critico, all'epistemia che invece delega totalmente il sapere a una macchina.

L'intervento di W. Quattrociocchi

Sull'epistemia si moltiplicano gli interventi variamente autorevoli. W. Quattrociocchi, professore dell'Università La Sapienza, ha recentemente pubblicato su Youtube un interessante video sull'argomento.

L'accademico si sofferma sulla mancata verifica dell'affidabilità del prodotto. Orizzonte assente nell'IA, in quanto il suo operato si ferma nell'assemblaggio di contenuti maggiormente ripresi da alte fonti. Dichiara W. Quattrociocchi: L'IA "abbiamo cominciato a capire che predilige percorsi già strutturati, quindi preferisce dire quello che è stato maggiormente detto rispetto ad un determinato argomento, l'abbiamo chiamato generative exageration. E abbiamo chiesto di simulare un giudizio, di come si comporta rispetto alla valutazione per esempio dell'affidabilità di una fonte, quindi come mette in pratica il concetto di affidabilità" (3:08). E giungiamo al punto nodale: il giudizio. "Nel large language model questo passaggio non c'è, è malamente simulato, cioè lui ti riassembla una frase, cioè tu gli dici dammi un giudizio sull'affidabilità di questa fonte e lui costruirà la sequenza di parole più plausibile rispetto a plausibile fonte, quello che gli abbiamo scritto noi, senza nessun tipo di verifica. Quando si parla di allucinazione, no? È forviante, non è il concetto, il termine esatto. Perché l'allucinazione prevede che ci sia una traiettoria nella costruzione che implichi la verifica".

Segui Voce della Scuola