di Klarida Rrapaj
Il 17 febbraio 2026 ho partecipato, presso la Camera dei Deputati a Roma, al convegno dal titolo L’impatto psicosociale dell’intelligenza artificiale, con un sottotitolo che già orientava il senso dell’incontro Le sfide dell’uomo moderno tra AI generale e nuovi sentimenti religiosi.
È stato un evento di alto profilo istituzionale e culturale, capace di mettere in dialogo tecnologia, diritto, etica e dimensione umana, offrendo spunti di riflessione che toccano direttamente il lavoro clinico e psicosociale.
I saluti istituzionali hanno aperto il quadro con chiarezza. Fabio Porta, deputato e membro della Commissione Affari Esteri e Comunitari, e Lorenzo Basso, senatore e vicepresidente della Commissione Ambiente, Transizione ecologica, Energia, Lavori pubblici, Comunicazioni e Innovazione tecnologica, hanno richiamato la necessità di affrontare l’intelligenza artificiale non solo come questione tecnica o produttiva, ma come trasformazione che investe la società, le istituzioni e il senso stesso della responsabilità.
Gli interventi successivi hanno articolato questa prospettiva. Francesco Carlino, direttore scientifico di Neural Research, ha evidenziato la spinta accelerata dello sviluppo tecnologico e le difficoltà di un governo normativo e culturale all’altezza della velocità del cambiamento. Pierguido Iezzi, Cyber Security Director di Maticmind – Zenita Group, ha posto l’attenzione sul passaggio da strumenti ad agenti, sulla centralità dei dati e sulla cyber security come nuovo equilibrio geopolitico. Gianni Lattanzio, segretario generale dell’ICPE e moderatore dell’incontro, ha riportato al centro il tema della responsabilità, ricordando che l’innovazione tecnologica non può dissolvere l’assunzione di responsabilità etica, giuridica e politica. Fabio Pasqualetti, professore ordinario di Teorie sociali della comunicazione e decano dell’Università Pontificia Salesiana, ha infine offerto una lettura antropologica e simbolica, mostrando come le tecnologie riconfigurino linguaggi, pratiche sociali e processi cognitivi.
Dal mio punto di vista clinico, ciò che emerge con maggiore forza è un filo trasversale a tutti gli interventi, la progressiva delega della responsabilità e la perdita del senso del limite. È un nodo che incontro quotidianamente nel lavoro con adolescenti e coppie.
Negli adolescenti l’utilizzo di ChatGPT e di altri sistemi di intelligenza artificiale non si limita più allo studio. Sempre più spesso diventa una mediazione del pensiero. Le risposte sono immediate, non chiedono attesa, non tollerano il dubbio, non attraversano l’errore. Il rischio non è lo strumento in sé, ma ciò che viene evitato, il processo di costruzione interna del pensiero e dell’identità. In seduta emergono difficoltà di simbolizzazione, un linguaggio emotivo povero, una narrazione frammentata del vissuto. Quando la soluzione arriva sempre dall’esterno, il soggetto fatica ad abitare la propria scelta. L’intelligenza artificiale può così trasformarsi in un alibi morale, non ho deciso io, mi è stato suggerito.
Dinamiche analoghe emergono nel lavoro con le coppie. L’uso dell’intelligenza artificiale per scrivere messaggi, chiarire conflitti o decidere come comportarsi rischia di produrre una delega della responsabilità relazionale. Ma una relazione non è un problema da ottimizzare. È uno spazio di esposizione emotiva, di parola imperfetta, di rischio e di presenza. Confondere efficienza e cura significa perdere la dimensione umana dell’incontro.
Uno dei passaggi più significativi del convegno è stato il richiamo al senso del limite, ripreso anche nei recenti messaggi di Papa Francesco sull’intelligenza artificiale. Il limite non è un ostacolo, ma una condizione fondamentale dell’umano. È ciò che permette di mantenere una distanza sana tra lo strumento e il soggetto, tra il calcolo e il significato, tra l’efficienza e la responsabilità. Le macchine possono analizzare, simulare, calcolare, ma non vivono l’esperienza. Possono descrivere un fenomeno, non attribuirgli senso. Possono supportare una diagnosi, non prendersi cura della persona nella sua unicità.
Questo porta a una riflessione più ampia sul mondo adulto. I giovani non fanno che abitare lo spazio che noi costruiamo. Quando mancano adulti capaci di incarnare responsabilità, limite e parola, la tecnologia diventa rifugio e sostituto. Il problema non è l’intelligenza artificiale, ma una povertà relazionale e simbolica che la precede e che oggi diventa evidente.
La vera domanda che questo convegno lascia aperta riguarda tutti noi. Quanto siamo disposti a delegare e quanto siamo disposti ad abitare in prima persona. L’intelligenza artificiale può essere una risorsa straordinaria se resta uno strumento. Diventa problematica quando sostituisce il processo umano. La sfida non è rendere la tecnologia più umana, ma aiutare l’essere umano a non rinunciare a esserlo, soprattutto nei luoghi decisivi della crescita, della cura e delle relazioni.
