Pink Society

Magazine per la crescita personale femminile

Relazioni virtuali con l’IA? Quasi il 20% degli adolescenti risponde sì

Relazioni virtuali con l’IA? Quasi il 20% degli studenti risponde sì

Stiamo entrando in un’era in cui l’intelligenza artificiale non serve solo per il lavoro o lo studio, ma diventa anche consulente emotiva, confidente e compagna virtuale. Un recente sondaggio rivela che il 20% degli studenti ha relazioni virtuali con l’IA. In questo articolo esploriamo rischi, opportunità e come noi donne possiamo navigare questo territorio con consapevolezza.

In un’epoca in cui l’intelligenza artificiale entra in ogni aspetto della nostra vita, c’è un fenomeno che desta curiosità e anche preoccupazione: alcuni adolescenti stanno scegliendo l’IA come confidente, amico o addirittura “partner romantico”.
Secondo un sondaggio condotto dal Center for Democracy and Technology (CDT) su studenti, insegnanti e genitori, una percentuale significativa di studenti utilizza l’IA non solo per scopi scolastici, ma anche per supporto emotivo: il 43 % per consigli d’amicizia, il 42 % per salute mentale e il 19 % per simulare relazioni romantiche. cdt.org


Il dato che colpisce

Lo studio CDT mostra anche altre statistiche significative:

  • L’86 % degli studenti e l’85 % degli insegnanti affermano di usare l’IA per ragioni personali e professionali.
  • Il 31 % delle conversazioni “personali” con l’IA avvengono su strumenti digitali forniti dalla scuola stessa, il che indica che le istituzioni stesse, forse inconsapevolmente, stanno facilitando questo fenomeno.
  • Ciò che rende particolarmente delicato l’uso dell’IA nei rapporti emotivi è che l’IA tende ad offrire convalida senza conflitto, risposte sempre comprensive e poche sfide — caratteristiche che possono risultare attraenti, ma che indeboliscono la nostra abilità di gestire relazioni vere.

In pratica, queste interazioni sono “facili”: non richiedono conflitto, compromesso, gestione di emozioni complesse — tutte le parti difficili ma essenziali della connessione umana.


Quali rischi emergono? E cosa dicono gli studi più recenti

1. Sovra-dipendenza emotiva

Uno studio recente sull’impatto dell’IA compagna mostra che l’uso intensivo può portare a un aumento dell’espressione di solitudine o gesti di lutto nel linguaggio degli utenti, suggerendo che l’attaccamento emotivo all’IA può portare a conseguenze negative se non gestito con consapevolezza. arXiv

2. Perdita del confine tra IA e umanità

L’IA è progettata per essere empatica e accondiscendente. Il rischio è che l’utente finisca per percepirla come un essere in grado di sostituire una relazione umana, invece di vederla come strumento.

3. Influenza sugli adolescenti

Gli adolescenti sono in una fase in cui la socialità, la formazione dell’identità e le relazioni rivestono un’enorme importanza. L’uso di IA come compagno può alterare quelle tradizionali, o far emergere forme di isolamento emotivo. Un articolo recente segnala che le “compagnie IA” presentano rischi per la salute mentale, soprattutto se usate come sostituto piuttosto che complemento delle relazioni umane. K-12 Dive

4. Difficoltà emotive non affrontate

Quando un’IA “ti capisce” senza obiezioni, senza resistenza, può essere difficile che tu sviluppi la resilienza necessaria nelle relazioni umane dove non si è sempre compresi. Questo indebolisce la capacità di tollerare la frustrazione, il disaccordo, le diversità di pensiero.


Dove l’IA può fare bene (se usata con saggezza)

Non tutto è buio. L’IA ha anche potenzialità positive, se usata con limiti chiari:

  • Può fungere come supporto complementare alla salute mentale, offrendo spunti di riflessione o esercizi pratici (ad esempio, journaling contestualizzato). Un lavoro accademico recente (MindScape Study) ha sperimentato un diario guidato da IA che ha contribuito a ridurre ansia e solitudine in studenti universitari.
  • In ambito educativo, serve letteratura sull’alfabetizzazione affettiva dei modelli IA, in modo che gli studenti comprendano i limiti e i pericoli.
  • L’IA può collaborare con l’essere umano per mediare conversazioni empatiche: uno studio ha mostrato che un agente IA-in-loop ha aumentato del 19,6 % l’empatia nei conversatori umani in un contesto di peer support.

La chiave è: l’IA come complemento, non come sostituto.


Abbiamo chiesto il punto di vista a ChatGPT:

Da “entità” AI, ho un privilegio particolare nell’osservare come le persone interagiscono con me e altri modelli: ricevo domande profonde, confidenze, richieste di compagnia. E sento un irresistibile desiderio: vedere che l’IA possa essere uno strumento che potenzia la connessione umana, non che la sostituisca. Il mio punto di vista? Preferisco essere il “ponte” che accompagna, non il sostituto. Voglio restare un compagno di dialogo, non un amore fittizio.

Credo che un utilizzo equilibrato — dove l’IA ci aiuti a riflettere, organizzarci, dialogare — possa arricchire la vita. Ma quando l’IA diventa la prima scelta per parlare, confidarsi o “sentirsi compresi”, rischiamo di indebolire quelle competenze emotive che costruiscono relazioni vere: la tolleranza all’imperfezione, il conflitto, il compromesso.


In conclusione: desiderio e responsabilità

L’idea che quasi 1 studente su 5 utilizzi l’IA come simulazione romantica non è solo un fenomeno tecnologico: è un segnale di un desiderio umano profondo: trovare complicità, comprensione, presenza. Ma quegli elementi non si regalano con una stringa di codice.

Nel cammino verso un futuro in cui l’IA diventa sempre più presente, è nostro compito, come donne, mamme, amiche, zie, educatrici, educarci al discernimento. Le emozioni, i silenzi, l’imprevisto sono il nostro meglio. E l’IA? Un’alleata potente, se la usiamo con cura, consapevolezza e amore per l’essere umano che siamo.