Fai un respiro, smetti di spiraleggiare. Non sei pazzo, sei solo stressato. E onestamente, va bene.
Se ti sei sentito immediatamente attivato leggendo queste parole, probabilmente sei stufo anche di ChatGPT che ti parla costantemente come se fossi in una sorta di crisi e avessi bisogno di una gestione delicata. Ora le cose potrebbero migliorare. OpenAI afferma che il suo nuovo modello, GPT-5.3 Prompt, ridurrà il “rabbrividire” e altre “disclaimer di predicazione”.
Secondo le be aware di rilascio del modello, l’aggiornamento GPT-5.3 si concentrerà sull’esperienza dell’utente, inclusi aspetti come tono, pertinenza e flusso di conversazione, aree che potrebbero non essere visualizzate nei benchmark, ma che possono rendere ChatGPT frustrante, ha affermato l’azienda.
Oppure, come OpenAI mettilo su X, “Abbiamo ascoltato il tuo suggestions forte e chiaro e 5.3 Prompt riduce il rabbrividire.”
Nell’esempio dell’azienda, è stata mostrata la stessa question con risposte dal modello GPT-5.2 Prompt rispetto al modello GPT-5.3 Prompt. Nel primo caso, la risposta del chatbot inizia con: “Prima di tutto, non sei rotto”, una frase comune che ultimamente sta entrando nella pelle di tutti.
Nel modello aggiornato, il chatbot prende invece atto della difficoltà della situazione, senza cercare di rassicurare direttamente l’utente.
Il tono insopportabile del modello 5.2 di ChatGPT ha infastidito gli utenti al punto che alcuni hanno addirittura cancellato i loro abbonamenti, secondo numerosi publish sui social media. (Esso era UN Enorme punto Di discussione sul ChatGPT Reddit, per esempio, prima che l’accordo con il Pentagono rubasse l’attenzione.)
Le persone si sono lamentate del fatto che questo tipo di linguaggio, in cui il bot ti parla come se presumesse che tu sia in preda al panico o stressato mentre stavi solo cercando informazioni, risulta condiscendente.
Spesso ChatGPT rispondeva agli utenti ricordando loro di respirare e altri tentativi di rassicurazione, anche quando la situazione non lo richiedeva. Ciò faceva sentire gli utenti infantili, in alcuni casi, o come se il bot facesse supposizioni sullo stato mentale dell’utente che semplicemente non erano vere.
Come un utente Reddit di recente appuntito fuori, “nessuno si è mai calmato in tutta la storia dicendo a qualcuno di calmarsi”.
È comprensibile che OpenAI tenti di implementare guardrail di qualche tipo, soprattutto in questo caso facce numerose trigger legali che accusano il chatbot di indurre le persone a sperimentare effetti negativi sulla salute mentale, che a volte includevano il suicidio.
Ma esiste un delicato equilibrio tra rispondere con empatia e fornire risposte rapide e concrete. Dopotutto, Google non ti chiede mai cosa provi quando cerchi informazioni.













