Home Tecnologia 5 motivi per cui dovresti essere più riservato con il tuo chatbot...

5 motivi per cui dovresti essere più riservato con il tuo chatbot (e come correggere gli errori del passato)

20
0

Kerry Wan/ZDNET

Segui ZDNET: Aggiungici come fonte preferita su Google.


Quanto sei personale con il tuo chatbot?

Interpreta i risultati del tuo laboratorio? Aiutarti a sistemare le tue finanze? Offrire consigli alle 2 del mattino quando le tue preoccupazioni sono particolarmente esistenziali?

Senza pensarci troppo profondamente, potresti rivelare tutta una serie di informazioni personali su di te, e questo potrebbe essere un problema.

In un momento in cui le persone integrano sempre più i chatbot nella loro vita quotidiana, i ricercatori stanno cercando di capire le implicazioni dell’inserimento di informazioni personali nell’intelligenza artificiale.

Inoltre: il 43% dei lavoratori afferma di aver condiviso informazioni sensibili con l’intelligenza artificiale, inclusi dati finanziari e dei clienti

Ormai probabilmente hai sentito storie di persone che instaurano relazioni romantiche con i chatbot o li usano come life coach e terapisti. Infatti, poco più della metà degli adulti statunitensi utilizzare modelli linguistici di grandi dimensioni, secondo uno studio del 2025 della Elon College. Inoltre, i chatbot sono progettati per essere amichevoli e far sì che le persone continuino a chattare e a parlare di se stesse.

“Il problema fondamentale è che non puoi controllare dove vanno le informazioni, e potrebbero fuoriuscire in modi che non ti aspetti”, ha affermato Jennifer King, ricercatrice di privateness e politica dei dati presso lo Stanford Institute for Human-Centered Synthetic Intelligence.

Per quanto astratta possa sembrare questa teoria, ricercatori come King affermano che vale la pena considerare esattamente cosa stai dicendo ai chatbot e quali ripercussioni tali informazioni potrebbero avere in futuro.

Ecco sei cose che dovresti sapere per entrare troppo nel personale con un chatbot.

1. Memorizzazione, previsione, sorveglianza

Quindi, qual è il danno nel fornire a un chatbot informazioni sensibili su di te?

Nessuno ne è sicuro, esattamente, e questo è il problema. Una domanda che i ricercatori si pongono è se i modelli memorizzano le informazioni e, in tal caso, se tali informazioni possono essere recuperate parola per parola o quasi. La memorizzazione è in realtà una delle lamentele principali Il New York Times‘ causa contro OpenAI. (OpenAI, in una dichiarazione del 2024ha detto che “il rigurgito è un virus raro” che si sta cercando di eliminare.)

(Divulgazione: Ziff Davis, la società madre di ZDNET, ha intentato una causa nell’aprile 2025 contro OpenAI, sostenendo di aver violato i diritti d’autore di Ziff Davis nella formazione e nel funzionamento dei suoi sistemi di intelligenza artificiale.)

“Dipendiamo molto dal fatto che le aziende facciano la cosa giusta e cerchino di mettere barriere che impediscano la fuoriuscita dei dati memorizzati”, ha detto King.

Su Web, le persone hanno in giro tutti i tipi di informazioni personali, anche nei registri pubblici, che potrebbero finire come dati di addestramento. Oppure qualcuno potrebbe aver caricato un documento, come un referto radiologico o un estratto conto medico, senza oscurare informazioni sensibili.

Una preoccupazione è che tutti questi dati potrebbero essere utilizzati per la sorveglianza, ha affermato King.

Inoltre: preoccupato per la privateness dell’intelligenza artificiale? Questo nuovo strumento del fondatore di Sign aggiunge la crittografia end-to-end alle tue chat

Se questo timore suona allarmistico, King ha ricordato il conflitto tra Anthropic e il Dipartimento della Difesa nelle ultime settimane, in cui la società si è opposta all’utilizzo del suo prodotto per la sorveglianza nazionale di massa.

“Una delle cose più importanti che ne sono derivate è stata la tacita ammissione che queste cose possono essere utilizzate per la sorveglianza pubblica di massa”, ha detto. “Questo è esattamente il tipo di cosa di cui saremmo preoccupati, ovvero che si possano utilizzare questi modelli per esaminare così tanti punti dati diversi.”

E anche se i modelli non dispongono di dati specifici, potrebbero comunque essere in grado di fare previsioni sulle persone.

Nell’a pezzo per Stanford riguardo alla ricerca del suo group, King ha fornito l’esempio di una richiesta di idee per una cena salutare per il cuore che venivano filtrate attraverso l’ecosistema di uno sviluppatore, classificandoti come una persona “vulnerabile per la salute” e tali informazioni finivano nelle mani di una compagnia assicurativa.

Re risultati della ricerca ha dimostrato che non è sempre chiaro cosa stanno facendo le aziende per affrontare questi problemi. Alcune organizzazioni adottano misure per rendere anonimi i dati prima di utilizzarli per la formazione, advert esempio sfocando i volti nelle foto caricate, il che potrebbe impedire che queste immagini vengano utilizzate per il riconoscimento facciale in futuro. Altre società potrebbero non fare nulla.

2. Le tue impostazioni potrebbero essere troppo permissive

Sebbene le impostazioni della piattaforma possano spesso essere labirintiche, vale la pena dedicare del tempo a comprendere le opzioni. Alcuni chatbot, come Claude e ChatGPT, offrono chat non-public. Se usi La chat in incognito di Claudela tua conversazione non verrà salvata nella cronologia chat né utilizzata per la formazione. Quelle chat, tuttavia, non sono impostazioni fisse. Lo stesso vale per ChatGPT Chat temporanee.

Potrebbero essere presenti altre opzioni nelle piattaforme per eliminare le cronologie delle chat o disattivare del tutto l’utilizzo della chat nei dati di addestramento del modello.

Inoltre: 5 semplici modifiche alle impostazioni di Gemini per proteggere la tua privateness dall’intelligenza artificiale

King ha anche detto che è bene ricordare, advert esempio, se stai utilizzando il tuo account o un account di lavoro.

“Anche la gente non lo sa [or] perdono traccia di ciò con cui hanno conversato”, ha detto. “Questo è il tuo contesto lavorativo, la tua intelligenza artificiale lavorativa, e gli hai detto che ti senti davvero depresso. Lì non ci sono aspettative di privateness da parte dei dipendenti.”

3. Le emozioni rivelano un contesto aggiuntivo

La maggior parte delle persone è probabilmente abituata a una certa quantità di informazioni quando è su Web. Anche una ricerca su Google può contenere informazioni sensibili sulla vita di una persona.

Una conversazione con un chatbot, tuttavia, aggiunge ancora più informazioni e contesto.

“Una question di ricerca è molto meno rivelatrice, soprattutto riguardo al tuo stato emotivo, rispetto alla trascrizione di un’intera chat”, ha detto King, confrontando la ricerca di qualcosa come una hotline per la prevenzione del suicidio con una trascrizione di 1.000 righe che descrive in dettaglio i pensieri e i sentimenti più intimi di una persona.

4. Gli esseri umani potrebbero leggere

L’intelligenza artificiale, notoriamente, non è umana. Per alcune persone, questo concetto potrebbe renderle più a loro agio nel condividere informazioni sensibili. Ma solo perché non c’è un essere umano che digita indietro non significa che uno potrebbe non essere in grado di leggere i tuoi messaggi.

Inoltre: i lavoratori Meta possono vedere attraverso i tuoi occhiali intelligenti Ray-Ban? Cosa cube un esperto di sicurezza

King ha osservato che alcune piattaforme utilizzano gli esseri umani per l’apprendimento di rinforzo, dove i sistemi vengono addestrati, in parte, sulla base di enter umani. Advert esempio, se contrassegni una risposta di un chatbot, un lavoratore da qualche parte nel mondo potrebbe controllarla nel tentativo di migliorare il modello. Come ha detto King, non è sempre chiaro quando qualcosa che scrivi potrebbe finire per essere rivisto da un essere umano.

5. La politica è in ritardo

Ciò che rende questi punti particolarmente complicati è la mancanza di regolamentazione sul modo in cui le società di intelligenza artificiale archiviano i dati sensibili.

Il California Client Privateness Act, advert esempio, prevede determinati requisiti su come i dati come le cartelle cliniche devono essere trattati in modo diverso da altre forme di dati. Ma la regolamentazione negli Stati Uniti può differire da stato a stato e, a livello federale, beh, non esiste alcuna regolamentazione.

“Se avessimo la legge che ci protegge, non sarebbe un rischio così grande”, ha detto King.

Cosa fare se hai detto troppo…

Se ti senti rabbrividito perché potresti aver già rivelato troppo a un chatbot, potresti avere alcune opzioni. King consiglia di eliminare le vecchie conversazioni e personalizzazioni che potresti aver effettuato per il futuro.

Se questi passaggi rimuovono le tue informazioni dai dati di addestramento, ha detto King, i ricercatori semplicemente non lo sanno.

Ciascuna piattaforma ha le proprie politiche e metodi per la gestione dei dati personali, che potrebbero richiedere alcuni approfondimenti. Ecco i collegamenti alle risorse di alcuni dei principali attori.



fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here