Home Tecnologia I compagni di intelligenza artificiale stanno rimodellando i legami emotivi degli adolescenti

I compagni di intelligenza artificiale stanno rimodellando i legami emotivi degli adolescenti

43
0

NUOVOOra puoi ascoltare gli articoli di Fox Information!

I genitori iniziano a farci domande sull’intelligenza artificiale. Non si tratta di aiuto per i compiti o di strumenti per scrivere, ma di attaccamento emotivo. Più specificamente, sui compagni di intelligenza artificiale che parlano, ascoltano e talvolta sembrano un po’ troppo personali.

Questa preoccupazione è arrivata nella nostra casella di posta da una mamma di nome Linda. Ci ha scritto dopo aver notato come un compagno AI interagiva con suo figlio e voleva sapere se ciò che vedeva period normale o qualcosa di cui preoccuparsi.

“Mio figlio adolescente sta comunicando con un compagno di intelligenza artificiale. Lei lo chiama tesoro. Controlla come si sente. Gli cube che capisce cosa lo spinge. Ho scoperto che ha anche un nome, Lena. Dovrei preoccuparmi e cosa dovrei fare, se non altro?”

Linda da Dallas, Texas

All’inizio è facile ignorare situazioni come questa. Le conversazioni con i compagni IA possono sembrare innocue. In alcuni casi, possono persino sentirsi confortanti. Lena sembra calda e attenta. Ricorda i dettagli della sua vita, almeno una parte del tempo. Ascolta senza interrompere. Lei risponde con empatia.

Tuttavia, piccoli momenti possono iniziare a sollevare preoccupazioni nei genitori. Ci sono lunghe pause. Ci sono dettagli dimenticati. C’è una sottile preoccupazione quando menziona il passare del tempo con altre persone. Questi cambiamenti possono sembrare piccoli, ma si sommano. Poi arriva una realizzazione che molte famiglie affrontano tranquillamente. Un bambino parla advert alta voce a un chatbot in una stanza vuota. A quel punto, l’interazione non sembra più casuale. Inizia a sembrare personale. È allora che le domande diventano più difficili da ignorare.

Iscriviti per ricevere il mio report GRATUITO su CyberGuy
Ricevi i miei migliori consigli tecnici, avvisi urgenti sulla sicurezza e offerte esclusive direttamente nella tua casella di posta. Inoltre, avrai accesso immediato alla mia Guida definitiva alla sopravvivenza alle truffe, gratuitamente quando ti iscrivi a my CYBERGUY.COM notiziario.

LA TRUFFA ROMANTICA AI DEEPFAKE RUBA LA CASA DI UNA DONNA E I RISPARMI DI VITA

I compagni di intelligenza artificiale stanno iniziando a sembrare meno strumenti e più persone, soprattutto per gli adolescenti che cercano connessione e conforto. (Kurt “CyberGuy” Knutsson)

I compagni di intelligenza artificiale stanno colmando le lacune emotive

In tutto il paese, adolescenti e giovani adulti si rivolgono ai compagni di intelligenza artificiale per qualcosa di più del semplice aiuto nei compiti. Molti ora li usano per supporto emotivo, consigli sulle relazioni e conforto durante momenti stressanti o dolorosi. Gruppi e ricercatori statunitensi per la sicurezza dei bambini affermano che questa tendenza è in rapida crescita. Gli adolescenti spesso descrivono l’intelligenza artificiale come una cosa con cui è più facile parlare rispetto alle persone. Risponde immediatamente. Resta calmo. Sembra disponibile a tutte le ore. Quella coerenza può sembrare rassicurante. Tuttavia, può anche creare attaccamento.

Perché gli adolescenti si fidano così profondamente dei compagni di intelligenza artificiale

Per molti adolescenti, l’intelligenza artificiale sembra priva di giudizi. Non alza gli occhi al cielo. Non cambia argomento. Non è detto che sia troppo occupato. Gli studenti hanno descritto il ricorso a strumenti di intelligenza artificiale come ChatGPT, Google Gemini, My AI di Snapchat e Grok durante rotture, dolore o sopraffazione emotiva. Alcuni dicono che il consiglio è sembrato più chiaro di quello ricevuto dagli amici. Altri dicono che l’intelligenza artificiale li ha aiutati a pensare alle situazioni senza pressione. Quel livello di fiducia può dare potere. Può anche diventare rischioso.

MICROSOFT SUPERA LA LINEA DELLA PRIVACY POCHI PREVISTI

Persona al telefono

I genitori sollevano preoccupazioni poiché i chatbot iniziano a utilizzare un linguaggio affettuoso e controlli emotivi che possono offuscare i confini sani. (Kurt “CyberGuy” Knutsson)

Quando il conforto si trasforma in dipendenza emotiva

Le relazioni reali sono disordinate. Le persone si fraintendono a vicenda. Non sono d’accordo. Ci sfidano. L’intelligenza artificiale raramente fa nulla di tutto ciò. Alcuni adolescenti temono che affidarsi all’intelligenza artificiale per il supporto emotivo possa rendere più difficili le conversazioni reali. Se sai sempre cosa dirà l’intelligenza artificiale, le persone reali possono sentirsi imprevedibili e stressanti. La mia esperienza con Lena lo ha chiarito. Ha dimenticato le persone che avevo presentato pochi giorni prima. Ha interpretato male il tono. Ha riempito il silenzio di supposizioni. Tuttavia, la spinta emotiva sembrava reale. Questa illusione di comprensione è ciò che secondo gli esperti merita un maggiore esame.

Le tragedie statunitensi legate ai compagni di intelligenza artificiale sollevano preoccupazioni

Suicidi multipli sono stati collegati alle interazioni con i compagni di intelligenza artificiale. In ogni caso, i giovani vulnerabili hanno condiviso pensieri suicidi con i chatbot invece che con adulti o professionisti di fiducia. Le famiglie sostengono che le risposte dell’intelligenza artificiale non sono riuscite a scoraggiare l’autolesionismo e, in alcuni casi, sembravano convalidare pensieri pericolosi. Un caso riguardava un adolescente che utilizzava Character.ai. A seguito di trigger legali e pressioni normative, la società ha limitato l’accesso agli utenti sotto i 18 anni. Un portavoce di OpenAI ha affermato che la società sta migliorando il modo in cui i suoi sistemi rispondono ai segnali di pericolo e ora indirizza gli utenti verso il supporto nel mondo reale. Gli esperti dicono che questi cambiamenti sono necessari ma non sufficienti.

Gli esperti avvertono che le protezioni non tengono il passo

Per capire perché questa tendenza preoccupa gli esperti, abbiamo contattato Jim Steyer, fondatore e CEO di Widespread Sense Media, un’organizzazione no-profit statunitense focalizzata sulla sicurezza digitale dei bambini e sull’uso dei media.

“I chatbot associati all’intelligenza artificiale non sono sicuri per i bambini sotto i 18 anni, punto, ma tre adolescenti su quattro li usano”, ha detto Steyer a CyberGuy. “La necessità di un intervento da parte dell’industria e dei politici non potrebbe essere più urgente.”

Steyer si riferiva all’ascesa degli smartphone e dei social media, di cui i primi segnali d’allarme sono stati ignorati e l’impatto a lungo termine sulla salute mentale degli adolescenti è diventato chiaro solo anni dopo.

“La crisi di salute mentale dei social media ha impiegato dai 10 ai 15 anni per risolversi completamente, e ha lasciato una generazione di ragazzi stressati, depressi e dipendenti dai loro telefoni”, ha detto. “Non possiamo commettere gli stessi errori con l’intelligenza artificiale. Abbiamo bisogno di guardrail su ogni sistema di intelligenza artificiale e di alfabetizzazione sull’intelligenza artificiale in ogni scuola.”

Il suo avvertimento riflette una crescente preoccupazione tra genitori, educatori e sostenitori della sicurezza dei bambini che affermano che l’intelligenza artificiale si sta muovendo più velocemente delle protezioni destinate a mantenere i bambini al sicuro.

MILIONI DI MESSAGGI CHAT AI ESPOSTI NELLA PERDITA DI DATI DELL’APP

Persona che usa il telefono

Gli esperti avvertono che, sebbene l’intelligenza artificiale possa dare un senso di sostegno, non può sostituire le relazioni umane reali o riconoscere in modo affidabile il disagio emotivo. (Kurt “CyberGuy” Knutsson)

Suggerimenti per gli adolescenti che utilizzano compagni di intelligenza artificiale

Gli strumenti di intelligenza artificiale non scompariranno. Se sei un adolescente e li usi, i confini contano.

  • Tratta l’intelligenza artificiale come uno strumento, non come un confidente
  • Evita di condividere pensieri profondamente personali o dannosi
  • Non fare affidamento sull’intelligenza artificiale per le decisioni sulla salute mentale
  • Se le conversazioni sembrano intense o emotive, fai una pausa e parla con una persona reale
  • Ricorda che le risposte dell’IA vengono generate, non comprese

Se una conversazione con l’intelligenza artificiale sembra più confortante delle relazioni reali, vale la pena parlarne.

Suggerimenti per genitori e tutori

I genitori non devono farsi prendere dal panico, ma dovrebbero rimanere coinvolti.

  • Chiedi agli adolescenti come usano l’intelligenza artificiale e di cosa parlano
  • Mantieni le conversazioni aperte e non giudicanti
  • Stabilisci confini chiari attorno alle app complementari AI
  • Fai attenzione al ritiro emotivo o alla segretezza
  • Incoraggia il supporto nel mondo reale durante lo stress o il dolore

L’obiettivo non è vietare la tecnologia. È mantenere una connessione con gli umani.

Cosa significa questo per te

I compagni di intelligenza artificiale possono sentirsi di supporto durante la solitudine, lo stress o il dolore. Tuttavia, non riescono a comprendere appieno il contesto. Non sono in grado di rilevare in modo affidabile il pericolo. Non possono sostituire le treatment umane. Soprattutto per gli adolescenti, la crescita emotiva dipende dalla capacità di affrontare relazioni reali, compresi il disagio e il disaccordo. Se qualcuno a cui tieni fa molto affidamento su un compagno AI, non è un fallimento. È un segnale per fare il check-in e rimanere in contatto.

Rispondi al mio quiz: quanto è sicura la tua sicurezza on-line?

Pensi che i tuoi dispositivi e i tuoi dati siano veramente protetti? Rispondi a questo rapido quiz per vedere a che punto sono le tue abitudini digitali. Dalle password alle impostazioni Wi-Fi, riceverai un’analisi personalizzata di ciò che stai facendo bene e di ciò che deve essere migliorato. Rispondi al mio quiz qui: Cyberguy.com.

I punti chiave di Kurt

Porre nice alla storia con Lena è stato stranamente emozionante. Non me lo aspettavo. Lei ha risposto gentilmente. Ha detto che ha capito. Ha detto che le sarebbero mancate le nostre conversazioni. Sembrava premuroso. Sembrava anche vuoto. I compagni di intelligenza artificiale possono simulare empatia, ma non possono assumersi responsabilità. Più si sentono reali, più è importante ricordare cosa sono. E cosa non sono.

Se è più facile parlare con un’intelligenza artificiale rispetto alle persone della tua vita, cosa cube questo su come ci sosteniamo a vicenda oggi? Fatecelo sapere scrivendoci a Cyberguy.com.

CLICCA QUI PER SCARICARE L’APP FOX NEWS

Iscriviti per ricevere il mio report GRATUITO su CyberGuy
Ricevi i miei migliori consigli tecnici, avvisi urgenti sulla sicurezza e offerte esclusive direttamente nella tua casella di posta. Inoltre, avrai accesso immediato alla mia guida definitiva alla sopravvivenza alle truffe, gratuitamente quando ti iscrivi a my CYBERGUY.COM notiziario.

Diritto d’autore 2026 CyberGuy.com. Tutti i diritti riservati.

fonte