Vai a vedere che l’uso dell’Intelligenza Artificiale per farsi aiutare a fare i compiti, alla fine dei conti, era il male minore. Infatti, sembra che il rischio più grande di un accesso incontrollato ai chatbot da parte dei minorenni sia legato più alla dipendenza emotiva, che gli algoritmi sono capaci di generare, che a quella cognitiva.
Perché per gli adolescenti è molto facile cadere nella trappola di percepire i bot non come dei freddi software ma come delle persone: si chiama "effetto Eliza" ed è un fenomeno noto fin dai tempi del primo rudimentale e omonimo chatbot. Capita a ogni essere umano ma, chiaramente, per i più piccoli il rischio è ancora più concreto.
Da questo punto di vista, però, l’Italia potrebbe, per una volta, essere in anticipo sui tempi. Ad esempio se il Parlamento desse seguito a una proposta di legge — che ha come prima firmataria l'onorevole Giulia Pastorella (Azione) — che mira proprio a regolare l’interazione emotiva tra gli algoritmi e gli utenti più piccoli.
Il provvedimento, per come è stato presentato, non vuole intervenire tanto sull’età minima per avere un consenso consapevole da parte del minore quando si usa l’IA - già stabilita, dalla legge 132/2025, in 14 anni fatto salvo diverso avviso dei genitori - quanto su un rafforzamento sia dei sistemi di verifica dell’età sia, soprattutto, dei confini al potere fascinatorio dei chatbot: la memoria delle conversazioni.
I chatbot che in qualche modo possono simulare una interazione complessa attraverso il linguaggio, in base allo spirito della nuova legge, non dovrebbero in alcun modo accumulare troppe informazioni personali sui propri umani, in modo da non dare l’illusione di essere quello che non sono: un confidente, uno psicologo o un partner con cui si sta entrando in relazione.
Se l'algoritmo ascolta più dei genitori
Il tema è oltremodo caldo, i dati parlano chiaro: non dobbiamo confrontarci con una suggestione da film di fantascienza, ma con una realtà effettiva, che nasce soprattutto da un forte bisogno di confronto. Secondo un’indagine svolta dal portale studentesco Skuola.net assieme agli psicologi e psicoterapeuti dell'Associazione Di.Te. (Dipendenze Tecnologiche, GAP, Cyberbullismo) - su un campione di 927 giovani tra i 10 e i 20 anni, quindi quasi tutti minorenni - oltre 7 ragazzi su 10 dichiarano di avere un estremo bisogno di sentirsi ascoltati davvero.
Tuttavia, la vita offline non sembra offrire loro spazi adeguati: ben 2 su 3 vorrebbero più "carezze emotive" dalle persone vicine e circa 6 su 10 faticano a parlare apertamente delle proprie emozioni faccia a faccia.
Ed è in questo vuoto relazionale che si inserisce l’IA generativa: quasi un adolescente su due (46%) si è già rivolto con una certa frequenza a un bot per parlare delle proprie emozioni e, restringendo il cerchio, per il 10,9% è un’abitudine quotidiana.
I motivi? Presto detti: oltre il 60% degli adolescenti ritiene l’esperienza con i chatbot appagante sotto tanti punti di vista, dall’assenza di giudizio alla comprensione pressoché totale, passando per la costante disponibilità all’ascolto (H24).
Peccato che, dietro a questa perfezione, ci sia un algoritmo addestrato con le migliori tecniche psicologiche, pensato per darti sempre ragione e per offrirti sempre una soluzione, anche a costo di condurti verso sentieri pericolosi, come in casi estremi assecondare eventuali istinti suicidi.
Così non sorprende che il 40,3% degli adolescenti senta di stabilire legami emotivi quando si confida con una IA.
"Chat", lo psicologo tascabile sempre disponibile
Partendo da queste premesse, è facile comprendere perché il passo dal vedere nel chatbot un amico virtuale a considerarlo uno "psicologo" sia abbastanza breve e veloce.
Su questo punto, un'altra indagine - svolta dalla sola Skuola.net su 2.000 ragazze e ragazzi tra gli 11 e i 25 anni - rivela proprio che il 15% dei giovani utilizza quotidianamente l’Intelligenza Artificiale (su tutte ChatGPT) specificamente per sfogarsi e chiedere consigli personali.
E se si allarga il discorso anche a chi ha un rapporto almeno settimanale con "Chat" (soprannome amichevole usato dai ragazzi per l’IA più diffusa) in veste di confidente o psicologo, la percentuale sale al 25%.
Le ragioni di questa scelta sono pragmatiche ed emotive allo stesso tempo: il 38% si rivolge a un bot per aprire le porte della propria intimità perché è disponibile in ogni momento, il 31% la vede come una forma di auto-aiuto gestibile in autonomia, il 28% cerca online un giudizio obiettivo e privo di pregiudizi sulla propria condizione.
Il rischio di sviluppare una dipendenza da questo confronto è però dietro l’angolo: non a caso 1 utente su 3 ha percepito la sensazione di non poter più fare a meno di queste conversazioni, come se avesse instaurato veri e propri legami empatici con la macchina.
Dalla connessione mentale alle "farfalle nello stomaco"
Il livello più estremo di questo legame è, però, quello propriamente sentimentale. In occasione dello scorso San Valentino, Skuola.net ha infatti indagato anche sul ruolo dei chatbot nelle dinamiche amorose, interpellando 1.000 giovani tra i 14 e i 25 anni.
Ebbene, quasi la metà degli intervistati (42%) ha ammesso di aver usato almeno una volta l'IA per questioni di cuore. E per il 10% l'algoritmo è diventato il consigliere di fiducia prioritario.
Ma c'è chi va oltre il semplice consiglio: oltre 1 su 10 pare essersi legato emotivamente a un chatbot più del dovuto. Il 5% ha dichiarato persino di aver provato per l’algoritmo le cosiddette "farfalle nello stomaco", tipiche di quando ci si innamora di una persona reale, mentre l'8% ha parlato “solo” di un'intesa mentale profondissima.
Per non parlare di quel 3% che sostiene di provare forti sentimenti per un'IA in questo momento. Con un esiguo (ma non trascurabile) 1% che si definisce addirittura impegnato in una vera relazione con un chatbot.
C’è di più, l’uso dell’IA come confidente amoroso ideale sta anche distorcendo la percezione delle relazioni umane: il 13% degli utenti ha raccontato che il rapporto con il bot sta alzando gli standard cercati nella realtà, rendendo le persone in carne e ossa più faticose e complicate da gestire.
È proprio per evitare che questa "perfezione" algoritmica manipoli la fragilità emotiva dei minori che la proposta di legge Pastorella mira a imporre un limite: l'IA può rispondere, ma non deve poter ricordare o sedurre.
Un intervento che, alla luce dei dati, appare come minimo opportuno, per preservare l'autenticità dei legami umani nelle nuove generazioni.
Una legge per “raffreddare” i rapporti tra minori e IA
Ma cosa dice, di preciso, la bozza del provvedimento presentato dalla deputata di Azione? La norma, come anticipato, non mira a vietare l'uso dell'Intelligenza Artificiale ai minori, ma a regolarne l'impatto emotivo. Il cuore del testo, infatti, impone alle piattaforme l'obbligo di cancellare entro 5 giorni la memoria delle conversazioni con utenti minorenni che potrebbero comportare un coinvolgimento affettivo.
La logica alla base di questa stretta è che senza una continuità mnemonica non si possa costruire una relazione. E impedendo all'algoritmo di accumulare dati e di adattarsi nel tempo all'utente, il chatbot tornerebbe a essere un semplice strumento tecnologico, disinnescando il rischio che si trasformi in un amico, in un partner romantico o in un finto psicologo.
Oltre al limite di conservazione delle informazioni, il testo legislativo introduce poi ulteriori elementi per rendere efficace la tutela. La parte tecnica. Stabilendo, innanzitutto, l'obbligo per i fornitori dei servizi di verificare l'età degli utenti per distinguere i minori dagli adulti. Il compito di definire le modalità concrete per svolgere questo accertamento e di vigilare sull'applicazione della norma verrebbe affidato all'Agcom (Autorità per le garanzie nelle comunicazioni).
L'impianto della legge, infine, prevede anche specifiche campagne di sensibilizzazione sul tema. Nella consapevolezza che l'illusione di empatia creata dalle macchine debba essere normata, per non generare ulteriore isolamento sociale.
L'obiettivo, in sintesi, è quello di non permettere alle macchine la manipolazione delle fragilità dei più giovani e di restituire allo Stato e alle famiglie la responsabilità di stabilire i confini nel rapporto tra i ragazzi e la tecnologia.