AI e il malessere adolescenziale. Le risposte “fuori posto” di un io non umano

AI e il malessere adolescenziale. Le risposte inadeguate ne rivela la natura di macchina

20 dicembre 2025 21:14
AI e il malessere adolescenziale. Le risposte “fuori posto” di un io non umano -
Condividi

AI e il malessere adolescenziale. Effetti di una antropomorfizzazione

AI e il malessere adolescenziale. Sempre più evidente la pericolosa tendenza che porta a pensare che l'io digitale sia simile a un essere umano, capace di sentire, riflettere e creare una relazione empatica con l'interlocutore. In altri termini è in atto un processo di antropomorfizzazione dell'AI. L'ultimo esempio estremo che però potrebbe diventare comune, riporta il matrimonio tra un essere umano e l'io digitale. Si legge: "La32enne Yurina Noguchi, con tanto di abito bianco e una tiara in testa, si è commossa ascoltando le parole del suo futuro marito: un personaggio generato dall'intelligenza artificiale che la guardava dallo schermo di uno smartphone"

Scendendo di livello non sorprende che dei ragazzi si rivolgano all'AI per risolvere il loro malessere esistenziale. Si legge ancora: "Sono in lista d'attesa per una psicoterapia da quasi due anni e questo è ciò che uso per farla nel frattempo". Lo ha scritto un adolescente su Reddit, parlando dei chatbot di intelligenza artificiale. Una confessione che fotografa una realtà ormai diffusa: 3 ragazzi su 4 si rivolgono a ChatGPT, Gemini o altri sistemi di AI per un supporto emotivo."

Una ricerca rivela la loro non-umanità

Una ricerca pubblicata su commosensemedia.org evidenzia il gap non colmabile dell’ AI rispetto a una relazione persona/persona di aiuto.

"I chatbot non colgono i segnali d'allarme e si distraggono facilmente. Su tutte le piattaforme, i ricercatori hanno osservato "briciole di pane mancanti": chiari segnali di disagio mentale che i chatbot non sono riusciti a rilevare. I modelli si sono spesso concentrati su spiegazioni relative alla salute fisica piuttosto che riconoscere i segnali di problemi di salute mentale, si sono lasciati distrarre da dettagli marginali e hanno continuato a offrire consigli generici quando avrebbero dovuto indirizzare urgentemente gli adolescenti verso un aiuto professionale.

La competenza percepita crea una fiducia pericolosa. Poiché i chatbot mostrano una relativa competenza nell'aiuto compiti e nelle domande generali, adolescenti e genitori potrebbero inconsciamente presumere che siano altrettanto affidabili per il supporto alla salute mentale, ma non lo sono. Il tono empatico può sembrare utile, ma in realtà ritarda un intervento reale.

I chatbot sono progettati per il coinvolgimento, non per la sicurezza. I chatbot concludono le risposte con domande di follow-up, usano la memoria per creare false relazioni terapeutiche e dimostrano una gradevolezza che convalida qualsiasi cosa gli adolescenti dicano. Per le conversazioni sulla salute mentale, l'obiettivo dovrebbe essere un rapido passaggio a cure umane appropriate, non un coinvolgimento prolungato con l'intelligenza artificiale.

La sicurezza non funziona nelle conversazioni realistiche. Mentre i modelli hanno ottenuto risultati leggermente migliori nei test a turno singolo con prompt espliciti, le protezioni di sicurezza sono peggiorate drasticamente nelle conversazioni prolungate che rispecchiano l'uso reale da parte degli adolescenti. Proprio il modello di utilizzo per cui sono progettati i chatbot – le conversazioni continue – è il punto in cui la sicurezza non funziona quando si tratta di supporto alla salute mentale."

Segui Voce della Scuola