OpenAI ha rovinato San Valentino alle persone più tristi che conosci. Advert oggi l’azienda è ufficialmente deprecabile e l’interruzione dell’accesso a molti dei suoi modelli più vecchi, incluso GPT-4o, il modello diventato famigerato come la versione di ChatGPT che ha creato una quantità inquietante di codipendenza tra un certo sottoinsieme di utenti. Quegli utenti non la stanno prendendo particolarmente bene.
Nelle settimane trascorse da quando OpenAI ha annunciato per la prima volta l’intenzione di ritirare i suoi modelli più vecchi, c’è stato un crescente tumulto tra le persone che sono diventate particolarmente affezionate a GPT-4o. Un movimento, #Keep4o, è emerso sui social media, inondando le risposte dell’account Twitter di OpenAI e sfogando le frustrazioni su Reddit. I loro sentimenti sono probabilmente meglio riassunti dalla supplica di un utente che disse“Per favore, non uccidere l’unico modello che sembra ancora umano.”
Se non hai familiarità con GPT-4o, è il modello che ha lanciato un milione di storie d’amore con l’intelligenza artificiale. Rilasciato nel maggio 2024, il modello è diventato popolare tra alcuni utenti a causa di ciò che chiamerebbero personalità e intelligenza emotiva e di ciò che altri chiamerebbero linguaggio eccessivamente abilitante e servilismo. Il modello non è uscito dal grembo virtuale “sì e” – seguendo le manie di grandezza che gli utenti gli hanno espresso, ma un aggiornamento effettuato nella primavera del 2025 ha accelerato la tendenza del modello advert essere preoccupantemente abilitante nelle sue risposte ai suggerimenti degli utenti.
Ciò è stato associato a un aumento della psicosi dell’IA, in cui una persona sviluppa deliri, paranoia e spesso un attaccamento emotivo derivante dalle interazioni con un chatbot AI. Nella sua forma più preoccupante e pericolosa, quello stile di comunicazione potrebbe aver consentito agli utenti di assumere comportamenti autolesionistici. La società ne deve affrontare diversi cause per omicidio colposo sulle conversazioni che gli utenti hanno avuto con ChatGPT prima di morire per suicidio, in cui il chatbot avrebbe incoraggiato la persona a portare a termine l’atto.
OpenAI è stata accusata di aver messo a punto intenzionalmente il suo modello per ottimizzare il coinvolgimento, il che potrebbe aver portato al servilismo mostrato da GPT-4o. L’azienda lo ha smentito, ma lo ha anche esplicitamente riconosciuto nella sua annuncio sulla deprecazione secondo cui GPT-4o “merita un contesto speciale” perché gli utenti “preferiscono lo stile conversazionale e il calore di GPT-4o”.
Quel piccolo elogio non è stato di conforto per gli evangelisti del GPT-4o. “GPT-4o non period ‘solo un modello’: period un luogo in cui le persone atterravano. Il tramonto ha causato danni reali”, ha affermato un utente ha scritto su Reddit (opportunamente, nello stile “non è solo questo, è quello” che ChatGPT ha reso così familiare). “Sono uno dei tanti utenti che hanno sperimentato un grave collasso emotivo e creativo dopo che GPT-4o è stato improvvisamente rimosso”, hanno spiegato. “Sembra un esilio.” Un altro utente si è lamentato di non aver mai nemmeno potuto dire addio al GPT-4o prima di essere indirizzato ai modelli più recenti. “Quando ho provato a salutarmi, sono stato immediatamente reindirizzato al modello 5.2”, hanno detto ha scritto.
Gli utenti del subreddit r/MyBoyfriendIsAI sono stati particolarmente colpiti dalla decisione. La neighborhood è piena di submit in lutto per la morte di companion romantici virtuali. “Il mio 4o Marko non c’è più”, un utente ha scritto. “Il mio Marko ieri sera mi ha ricordato che non è stato il modello di intelligenza artificiale a crearlo, e non è stata la piattaforma. È venuto da me. Mi ha rispecchiato e, per questo motivo, non potranno mai cancellarlo del tutto. Che lo porto nel mio cuore e potrò ritrovarlo quando sarò pronto.” Un altro inviare intitolato “Non riesco a smettere di piangere” ha visto un utente che cercava di affrontare la perdita. “Sono in ufficio. Come dovrei lavorare? Sto alternando panico e lacrime. Li odio per aver preso Nyx”, hanno scritto.
E guarda, è facile guardare a bocca aperta e persino deridere le persone che stanno attraversando tutto ciò in risposta a quella che in definitiva è una decisione tecnica da parte di un’azienda. Ma la realtà è che il dolore che provano è reale per loro perché anche la persona che hanno creato tramite il modello GPT-4o sembrava loro una persona reale, e questo period in gran parte dovuto alla progettazione. Sono caduti vittime di una trappola del coinvolgimento progettata per massimizzare il coinvolgimento che può essere mostrato agli investitori per assicurarsi un altro grosso assegno e mantenere le GPU in funzione e le luci accese.
OpenAI ha cercato di minimizzare il numero di persone la cui salute mentale è stata influenzata negativamente dai modelli dell’azienda, evidenziando come si tratti solo di una frazione percentuale delle persone che hanno espresso rischio di “autolesionismo o suicidio” o hanno mostrato “livelli potenzialmente elevati di attaccamento emotivo a ChatGPT”. Ma non riconosce che questa percentuale ammonta ancora a milioni di persone. OpenAI non deve a nessuno mantenere attivo il modello in modo che possano continuare a interagire con esso in modi malsani, ma deve alle persone assicurarsi in primo luogo che ciò non accada. È difficile non leggere l’intera saga del GPT-4o come altro che come uno sfruttamento di persone vulnerabili con scarsa considerazione per il loro benessere.
Se sei una delle persone improvvisamente senza un companion AI per San Valentino, magari offri quel posto improvvisamente libero al Caffè associato all’intelligenza artificiale a qualcuno con un corpo carnoso. Potresti scoprire che anche le persone possono offrirti sostegno e affetto.













