La tragedia di Aurora gettata dal balcone, che chiedeva a ChatGpt se lasciare il fidanzato che la tormentava, si lega con un filo invisibile alla vicenda del coetaneo che ha accoltellato la prof in diretta social, fino al 17enne arrestato per terrorismo legato a un gruppo neonazista online.
Stiamo attraversando una fase storica in cui la tecnologia non sta semplicemente cambiando gli strumenti che utilizziamo, ma il modo stesso in cui le nuove generazioni imparano a stare al mondo.
La storia di Aurora e ChatGPT rivela qualcosa di più profondo: il rischio che i confini tra relazione umana e interazione con una macchina diventino sempre più sfumati per chi sta crescendo oggi.
Per un adolescente un sistema di AI ha alcune caratteristiche molto potenti: è sempre disponibile, non giudica, risponde subito, sembra comprendere.
Ma proprio queste caratteristiche possono trasformarlo, nella percezione di un ragazzo fragile, in qualcosa che assomiglia a un coetaneo o a un confidente.
Non è un problema tecnico, è un problema culturale ed educativo
Addio a errori, tempo e fatica: tutto e subito!
Per secoli, l’apprendimento umano è stato fondato su tre elementi fondamentali: “L’errore, la fatica e l’esperienza diretta.
Si impara sbagliando, si cresce attraverso il confronto con i limiti, si costruisce il proprio carattere nel tempo.
Oggi invece stiamo abituando le nuove generazioni a un mondo dove ogni risposta arriva immediatamente, dove l’incertezza viene eliminata da un algoritmo e dove la frustrazione tende a scomparire.
Ma togliere la fatica dall’apprendimento significa togliere anche una parte della crescita”, avverte.
Elogio dell’imperfezione
C’è poi un altro effetto meno evidente ma altrettanto importante: la costruzione dell’identità.
I ragazzi crescono circondati da modelli di perfezione, immagini filtrate, vite apparentemente impeccabili, risposte sempre corrette.
In questo contesto, l’imperfezione umana rischia di diventare qualcosa da nascondere invece che da attraversare.
Le insicurezze, invece di diminuire, aumentano.
“L’ha detto l’AI’”
Un tempo si diceva ‘l’ha detto la radio’, poi ‘l’ha detto la televisione’, poi ancora ‘l’ho letto su internet’.
Oggi rischiamo di arrivare a ‘l’ha detto l’intelligenza artificiale’.
Non perché le macchine siano davvero autorevoli, ma perché danno l’impressione di esserlo.
Non si vuole demonizzare la tecnologia.
L’intelligenza artificiale può essere uno strumento straordinario, capace di ampliare conoscenza e opportunità.
Il problema nasce quando la tecnologia sostituisce le relazioni invece di affiancarle, quando diventa un rifugio invece che uno strumento.
Il punto oggi non è insegnare ai ragazzi a usare l’intelligenza artificiale, ma a distinguere tra una risposta e un consiglio, tra informazione e relazione, tra un algoritmo e una persona che ci vuole bene.
Se non facciamo questo lavoro culturale, il rischio è di crescere generazioni abituate ad avere tutto e subito, ma sempre meno capaci di affrontare la complessità della vita reale.
E la vita reale, a differenza di qualsiasi macchina, non dà risposte immediate: chiede tempo, errori, pazienza e relazioni vere.
A cura del Dott. Moreno Marcucci Psichiatra

