In una settimana di uscite piuttosto pubbliche dalle società di intelligenza artificiale, il caso di Zoë Hitzig è, senza dubbio, quello che attira più l’attenzione. L’ex ricercatore di OpenAI ha divorziato dall’azienda in un editoriale sul New York Times in cui ha messo in guardia non da una crisi vaga e senza nome come il responsabile della salvaguardia di Anthropic recentemente scomparso, ma da qualcosa di reale e imminente: l’introduzione di annunci pubblicitari su ChatGPT da parte di OpenAI e quali informazioni utilizzerà per indirizzare quei messaggi sponsorizzati.
C’è un’importante distinzione che Hitzig fa all’inizio del suo editoriale: non è la pubblicità in sé il problema, ma piuttosto il potenziale utilizzo di una grande quantità di dati sensibili che gli utenti hanno condiviso con ChatGPT senza pensarci due volte su come potrebbero essere utilizzati per prenderli di mira o chi potrebbe potenzialmente metterci le mani sopra.
“Per diversi anni, gli utenti di ChatGPT hanno generato un archivio di sincerità umana che non ha precedenti, in parte perché le persone credevano di parlare con qualcosa che non aveva secondi fini”, ha scritto. “Le persone raccontano ai chatbot le loro paure mediche, i loro problemi relazionali, le loro convinzioni su Dio e sull’aldilà. La pubblicità basata su quell’archivio crea un potenziale per manipolare gli utenti in modi che non abbiamo gli strumenti per comprendere, e tanto meno prevenire.”
OpenAI ha almeno riconosciuto questa preoccupazione. Nell’a articolo del blog pubblicato all’inizio di quest’anno in cui si annunciava che la società sperimenterà la pubblicità, la società ha promesso che manterrà un firewall tra le conversazioni che gli utenti hanno con ChatGPT e gli annunci pubblicitari che ricevono dal chatbot. “Manteniamo le tue conversazioni con ChatGPT personal dagli inserzionisti e non vendiamo mai i tuoi dati agli inserzionisti.”
Hitzig crede che sia vero… per ora. Ma ha perso la fiducia nell’azienda per mantenere quella posizione a lungo termine, soprattutto perché non c’è nulla che la impedisca di mantenere la privateness promessa. Il ricercatore ha sostenuto che OpenAI sta “costruendo un motore economico che crea forti incentivi a ignorare le proprie regole” e ha avvertito che la società potrebbe già allontanarsi dai principi precedenti.
Advert esempio, OpenAI ha dichiarato che non ottimizza ChatGPT per massimizzare il coinvolgimento, una metrica che sarebbe particolarmente interessante per un’azienda che cerca di tenere le persone bloccate nelle conversazioni in modo da poter offrire loro più annunci. Ma una dichiarazione non è vincolante e non è chiaro che l’azienda sia effettivamente all’altezza di ciò. L’anno scorso, l’azienda si è imbattuta in un problema di servilismo con il suo modello: ha iniziato a diventare eccessivamente lusinghiero per i suoi utenti e, a volte, ha alimentato pensieri deliranti che potrebbero aver contribuito a “psicosi da chatbot” E autolesionismo. Gli esperti hanno avvertito che il servilismo non è solo un errore nell’ottimizzazione del modello, ma un modo intenzionale per coinvolgere gli utenti nel parlare con il chatbot.
In un certo senso, OpenAI sta semplicemente accelerando il modello di Fb promettendo agli utenti la privateness sui propri dati e poi tirandoli sul tappeto quando si scopre che i dati sono piuttosto preziosi. Hitzig sta cercando di uscire in testa al treno prima che prenda troppo piede, e ha raccomandato a OpenAI di adottare un modello che garantirà effettivamente la protezione degli utenti, creando una sorta di supervisione indipendente reale e vincolante o mettendo i dati sotto il controllo di un belief con il “dovere legale di agire nell’interesse degli utenti”. Entrambe le opzioni sembrano ottime, anche se Meta ha fatto la prima cosa creando il Meta Oversight Board e poi regolarmente ignorato e deriso.
Anche Hitzig, sfortunatamente, potrebbe dover affrontare una dura battaglia per convincere le persone a prendersi cura di lui. Due decenni di social media hanno creato un senso di nichilismo della privacy nel grande pubblico. A nessuno piacciono le pubblicità, ma la maggior parte delle persone non ne è abbastanza infastidita da poter fare qualsiasi cosa. Forrester ha scoperto che l’83% delle persone gli intervistati continuerebbero a utilizzare il livello gratuito di ChatGPT nonostante l’introduzione della pubblicità. Anthropic ha provato a guadagnare qualche punto con il pubblico martellando OpenAI per la sua decisione di inserire annunci in ChatGPT con uno spot di alto profilo al Tremendous Bowl questo positive settimana, ma la risposta del pubblico è stata più confusione che altro, per settimana pubblicitariache ha rilevato che l’annuncio si è classificato nell’ultimo 3% di gradimento in tutti gli spot del Tremendous Bowl.
L’avvertimento di Hitzig è fondato. La sua preoccupazione è reale. Ma convincere il pubblico a prendersi cura della propria privateness dopo anni di sottomissione da parte degli algoritmi è un vero sollievo.











