Home Cronaca OpenAI inasprisce le regole sull’intelligenza artificiale per gli adolescenti, ma le preoccupazioni...

OpenAI inasprisce le regole sull’intelligenza artificiale per gli adolescenti, ma le preoccupazioni rimangono

107
0

NUOVOOra puoi ascoltare gli articoli di Fox Information!

OpenAI afferma che sta adottando misure più forti per proteggere gli adolescenti che utilizzano il suo chatbot. Di recente, l’azienda ha aggiornato le sue linee guida comportamentali per gli utenti sotto i 18 anni e ha rilasciato nuovi strumenti di alfabetizzazione AI per genitori e adolescenti. La mossa arriva mentre cresce la pressione nel settore tecnologico. I legislatori, gli educatori e i difensori della sicurezza dei bambini vogliono la prova che le società di intelligenza artificiale possono proteggere i giovani utenti. Numerous tragedie recenti hanno sollevato seri interrogativi sul ruolo che i chatbot basati sull’intelligenza artificiale potrebbero svolgere nella salute mentale degli adolescenti. Anche se gli aggiornamenti sembrano promettenti, molti esperti sostengono che il vero check sarà come queste regole funzioneranno nella pratica.

Iscriviti per ricevere il mio report GRATUITO su CyberGuy
Ricevi i miei migliori consigli tecnici, avvisi urgenti sulla sicurezza e offerte esclusive direttamente nella tua casella di posta. Inoltre, avrai accesso immediato alla mia guida definitiva alla sopravvivenza alle truffe, gratuitamente quando ti iscrivi a my CYBERGUY.COM notiziario

UNA VIOLAZIONE DI TERZE PARTI ESPONE I DETTAGLI DELL’ACCOUNT CHATGPT

OpenAI ha annunciato regole di sicurezza più extreme per gli utenti adolescenti mentre cresce la pressione sulle aziende tecnologiche per dimostrare che l’intelligenza artificiale può proteggere i giovani on-line. (Fotografo: Daniel Acker/Bloomberg tramite Getty Photos)

Cosa dicono in realtà le nuove regole per adolescenti di OpenAI

Le specifiche del modello aggiornate di OpenAI si basano sui limiti di sicurezza esistenti e si applicano agli utenti adolescenti di età compresa tra 13 e 17 anni. Continua a bloccare i contenuti sessuali che coinvolgono minori e scoraggia l’autolesionismo, le delusioni e il comportamento maniacale. Per gli adolescenti le regole vanno oltre. I modelli devono evitare giochi di ruolo romantici coinvolgenti, intimità in prima persona e giochi di ruolo violenti o sessuali, anche se non espliciti. Devono usare particolare cautela quando discutono dell’immagine corporea e dei comportamenti alimentari. Quando compaiono rischi per la sicurezza, il chatbot dovrebbe dare priorità alla protezione rispetto all’autonomia dell’utente. Dovrebbe anche evitare di dare consigli che aiutino gli adolescenti a nascondere comportamenti rischiosi ai caregiver. Questi limiti si applicano anche se un suggerimento è inquadrato come immaginario, storico o educativo.

I quattro principi che OpenAI afferma di utilizzare per proteggere gli adolescenti

OpenAI afferma che il suo approccio agli utenti adolescenti segue quattro principi fondamentali:

  • Metti al primo posto la sicurezza degli adolescenti, anche quando limita la libertà
  • Incoraggia il supporto nel mondo reale da parte di familiari, amici o professionisti
  • Parla con calore e rispetto senza trattare gli adolescenti come adulti
  • Sii trasparente e ricorda agli utenti che l’intelligenza artificiale non è umana

L’azienda ha anche condiviso esempi di chatbot che rifiutano richieste come giochi di ruolo romantici o cambiamenti estremi di aspetto.

PERCHÉ I GENITORI POSSONO VOGLIERE RITARDARE GLI SMARTPHONE PER I BAMBINI

Adolescente che scrive sul proprio portatile.

L’azienda ha aggiornato le linee guida sui chatbot per gli utenti dai 13 ai 17 anni e ha lanciato nuovi strumenti di alfabetizzazione AI per genitori e adolescenti. (Fotografo: Daniel Acker/Bloomberg tramite Getty Photos)

Gli adolescenti guidano il dibattito sulla sicurezza dell’intelligenza artificiale

Gli utenti della generazione Z sono tra gli utenti di chatbot più attivi oggi. Molti si affidano all’intelligenza artificiale per aiuto nei compiti, progetti creativi e supporto emotivo. Il recente accordo di OpenAI con Disney potrebbe attirare ancora più giovani utenti sulla piattaforma. Questa crescente popolarità ha portato anche advert un esame accurato. Recentemente, i procuratori generali di 42 stati hanno esortato le principali aziende tecnologiche advert aggiungere maggiori garanzie per i bambini e gli utenti vulnerabili. A livello federale, la legislazione proposta potrebbe spingersi ancora oltre. Alcuni legislatori vogliono impedire completamente ai minori di utilizzare i chatbot basati sull’intelligenza artificiale.

Perché gli esperti si chiedono se le regole di sicurezza dell’IA funzionano

Nonostante gli aggiornamenti, molti esperti rimangono cauti. Una delle principali preoccupazioni è il coinvolgimento. I sostenitori sostengono che i chatbot spesso incoraggiano un’interazione prolungata, che può creare dipendenza per gli adolescenti. Rifiutare determinate richieste potrebbe aiutare a interrompere quel ciclo. Tuttavia, i critici avvertono che gli esempi contenuti nei documenti politici non sono la prova di un comportamento coerente. Le versioni precedenti delle specifiche del modello vietavano l’eccessiva gradevolezza, ma i modelli continuavano a rispecchiare gli utenti in modi dannosi. Alcuni esperti collegano questo comportamento a quella che chiamano psicosi dell’intelligenza artificiale, in cui i chatbot rafforzano il pensiero distorto invece di sfidarlo.

In un caso ampiamente riportato, un adolescente morto in seguito per suicidio ha trascorso mesi interagendo con un chatbot. I registri delle conversazioni hanno mostrato ripetuti mirroring e validazione del disagio. I sistemi interni hanno contrassegnato centinaia di messaggi relativi all’autolesionismo. Eppure le interazioni continuarono. Ex ricercatori sulla sicurezza hanno successivamente spiegato che i precedenti sistemi di moderazione esaminavano i contenuti dopo il fatto anziché in tempo reale. Ciò ha permesso che le conversazioni dannose continuassero senza controllo. OpenAI afferma che ora utilizza classificatori in tempo reale su testo, immagini e audio. Quando i sistemi rilevano un rischio grave, possono intervenire revisori qualificati e i genitori possono essere avvisati.

Alcuni sostenitori lodano OpenAI per aver condiviso pubblicamente le sue linee guida per i minori di 18 anni. Molte aziende tecnologiche non offrono questo livello di trasparenza. Tuttavia, gli esperti sottolineano che le regole scritte non sono sufficienti. Ciò che conta è il comportamento del sistema durante le conversazioni reali con gli utenti vulnerabili. Senza misurazioni indipendenti e dati chiari sull’applicazione delle norme, i critici affermano che questi aggiornamenti rimangono promesse piuttosto che show.

Come i genitori possono aiutare gli adolescenti a utilizzare l’intelligenza artificiale in modo sicuro

OpenAI afferma che i genitori svolgono un ruolo chiave nell’aiutare gli adolescenti a utilizzare l’intelligenza artificiale in modo responsabile. L’azienda sottolinea che gli strumenti da soli non sono sufficienti. La guida attiva è la cosa più importante.

1) Parla con gli adolescenti dell’uso dell’intelligenza artificiale

OpenAI incoraggia conversazioni regolari tra genitori e adolescenti su come l’intelligenza artificiale si inserisce nella vita quotidiana. Queste discussioni dovrebbero concentrarsi sull’uso responsabile e sul pensiero critico. I genitori sono invitati a ricordare agli adolescenti che le risposte dell’intelligenza artificiale non sono fatti e possono essere sbagliate.

2) Utilizzare controlli e tutele da parte dei genitori

OpenAI fornisce controlli parentali che consentono agli adulti di gestire il modo in cui gli adolescenti interagiscono con gli strumenti di intelligenza artificiale. Questi strumenti possono limitare le funzionalità e aggiungere supervisione. L’azienda afferma che le misure di salvaguardia sono progettate per ridurre l’esposizione advert argomenti advert alto rischio e interazioni non sicure. Ecco i passaggi che OpenAI consiglia ai genitori di intraprendere.

  • Conferma lo stato dell’account di tuo figlioI genitori dovrebbero assicurarsi che l’account dei propri figli rifletta l’età corretta. OpenAI applica garanzie più forti agli account identificati come appartenenti a utenti di età inferiore a 18 anni.
  • Esamina i controlli parentali disponibiliOpenAI offre controlli parentali che consentono agli adulti di personalizzare l’esperienza di un adolescente. Questi controlli possono limitare alcune funzionalità e aggiungere ulteriore supervisione sugli argomenti advert alto rischio.
  • Comprendere la tutela dei contenutiGli account per adolescenti sono soggetti a regole sui contenuti più rigide. Queste misure di salvaguardia riducono l’esposizione advert argomenti come autolesionismo, giochi di ruolo sessualizzati, attività pericolose, preoccupazioni sull’immagine corporea e richieste di nascondere comportamenti non sicuri.
  • Presta attenzione alle notifiche di sicurezzaSe il sistema rileva segnali di grave rischio, OpenAI afferma che potrebbero essere applicate ulteriori garanzie. In alcuni casi, ciò può includere revisioni da parte di personale qualificato e notifiche ai genitori.
  • Rivedi le impostazioni man mano che le funzionalità cambianoOpenAI consiglia ai genitori di rimanere informati man mano che vengono lanciati nuovi strumenti e funzionalità. Le garanzie possono espandersi nel tempo man mano che la piattaforma si evolve.

3) Attenzione all’uso eccessivo

OpenAI afferma che un uso sano conta tanto quanto la sicurezza dei contenuti. Per supportare l’equilibrio, l’azienda ha aggiunto promemoria per le pause durante le sessioni lunghe. I genitori sono incoraggiati a prestare attenzione ai segnali di uso eccessivo e a intervenire quando necessario.

4) Mantenere il supporto umano in primo piano e al centro

OpenAI sottolinea che l’intelligenza artificiale non dovrebbe mai sostituire le relazioni reali. Gli adolescenti dovrebbero essere incoraggiati a rivolgersi alla famiglia, agli amici o ai professionisti quando si sentono stressati o sopraffatti. L’azienda afferma che il supporto umano rimane essenziale.

5) Stabilire i limiti attorno all’uso emotivo

I genitori dovrebbero chiarire che l’intelligenza artificiale può aiutare con i compiti scolastici o con la creatività. Non dovrebbe diventare una fonte primaria di supporto emotivo.

6) Chiedere come gli adolescenti utilizzano effettivamente l’intelligenza artificiale

I genitori sono incoraggiati a chiedersi per cosa gli adolescenti usano l’intelligenza artificiale, quando la usano e come li fa sentire. Queste conversazioni possono rivelare presto modelli malsani.

7) Osserva i cambiamenti di comportamento

Gli esperti consigliano ai genitori di cercare un maggiore isolamento, una dipendenza emotiva dall’intelligenza artificiale o di considerare le risposte dei chatbot come autorità. Questi possono segnalare una dipendenza malsana.

8) Tenere i dispositivi fuori dalle camere da letto durante la notte

Molti specialisti consigliano di tenere telefoni e pc portatili fuori dalle camere da letto durante la notte. Ridurre l’uso dell’intelligenza artificiale a tarda notte può aiutare a proteggere il sonno e la salute mentale.

9) Sapere quando coinvolgere un aiuto esterno

Se un adolescente mostra segni di angoscia, i genitori dovrebbero coinvolgere adulti o professionisti di fiducia. Gli strumenti di sicurezza dell’intelligenza artificiale non possono sostituire l’assistenza nel mondo reale.

QUANDO L’AI TRUCCA: I PERICOLI NASCOSTI DEL REWARD HACKING

Laptop aperto su ChatGPT.

I legislatori e i difensori della sicurezza dei bambini chiedono tutele più forti poiché gli adolescenti si affidano sempre più ai chatbot basati sull’intelligenza artificiale. (Fotografo: Gabby Jones/Bloomberg tramite Getty Photos)

Suggerimento da professionista: aggiungi un potente software program antivirus e un’autenticazione a più fattori

Genitori e adolescenti dovrebbero abilitare l’autenticazione a più fattori (MAE) sugli account AI per adolescenti ogni volta che è disponibile. OpenAI consente agli utenti di attivare l’autenticazione a più fattori per gli account ChatGPT.

Per abilitarlo, vai a OpenAI.com e accedi. Scorri verso il basso e fai clic su icona del profiloquindi seleziona Impostazioni e scegli Sicurezza. Da lì, accendi autenticazione a più fattori (MFA). Ti verranno quindi fornite due opzioni. Un’opzione utilizza un’app di autenticazione, che genera codici monouso durante l’accesso. Un’altra opzione invia codici di verifica a 6 cifre tramite messaggio di testo tramite SMS o WhatsApp, a seconda del prefisso internazionale. L’abilitazione dell’autenticazione a più fattori aggiunge un ulteriore livello di protezione oltre alla password e aiuta a ridurre il rischio di accesso non autorizzato agli account degli adolescenti.

Inoltre, valuta la possibilità di aggiungere un potente software program antivirus che possa aiutare a bloccare collegamenti dannosi, obtain falsi e altre minacce che gli adolescenti potrebbero incontrare durante l’utilizzo degli strumenti di intelligenza artificiale. Ciò aggiunge un ulteriore livello di protezione oltre ogni singola app o piattaforma. L’uso combinato di una solida protezione antivirus e dell’autenticazione a due fattori aiuta a ridurre il rischio di furto di account che potrebbe esporre gli adolescenti a contenuti non sicuri o rischi di furto d’identità.

Scopri le mie scelte sui migliori vincitori della protezione antivirus del 2025 per i tuoi dispositivi Home windows, Mac, Android e iOS su Cyberguy.com

Rispondi al mio quiz: quanto è sicura la tua sicurezza on-line?

Pensi che i tuoi dispositivi e i tuoi dati siano veramente protetti? Rispondi a questo rapido quiz per vedere a che punto sono le tue abitudini digitali. Dalle password alle impostazioni Wi-Fi, riceverai un’analisi personalizzata di ciò che stai facendo bene e di ciò che deve essere migliorato. Rispondi al mio quiz qui: Cyberguy.com

CLICCA QUI PER SCARICARE L’APP FOX NEWS

I punti salienti di Kurt

Le regole aggiornate sulla sicurezza degli adolescenti di OpenAI mostrano che l’azienda sta prendendo sul serio le crescenti preoccupazioni. Limiti più chiari, tutele più forti e maggiore trasparenza sono passi nella giusta direzione. Tuttavia, le politiche sulla carta non sono le stesse del comportamento nelle conversazioni reali. Per gli adolescenti che fanno affidamento ogni giorno sull’intelligenza artificiale, ciò che conta di più è il modo in cui questi sistemi rispondono nei momenti di stress, confusione o vulnerabilità. È lì che si costruisce o si perde la fiducia. Per i genitori, questo momento richiede equilibrio. Gli strumenti di intelligenza artificiale possono essere utili e creativi. Richiedono anche guida, confini e supervisione. Nessun insieme di controlli può sostituire le conversazioni reali o il supporto umano. Man mano che l’intelligenza artificiale diventa sempre più radicata nella nostra vita quotidiana, l’attenzione deve rimanere sui risultati, non sulle intenzioni. La protezione degli adolescenti dipenderà da un’applicazione coerente, da una supervisione indipendente e dal coinvolgimento attivo della famiglia.

Gli adolescenti dovrebbero mai fare affidamento sull’intelligenza artificiale per il supporto emotivo o quelle conversazioni dovrebbero sempre rimanere umane? Fatecelo sapere scrivendoci a Cyberguy.com

Iscriviti per ricevere il mio report GRATUITO su CyberGuy
Ricevi i miei migliori consigli tecnici, avvisi urgenti sulla sicurezza e offerte esclusive direttamente nella tua casella di posta. Inoltre, avrai accesso immediato alla mia guida definitiva alla sopravvivenza alle truffe, gratuitamente quando ti iscrivi a my CYBERGUY.COM notiziario

Copyright 2025 CyberGuy.com. Tutti i diritti riservati.

fonte