Home Tecnologia OpenAI spiega come i suoi agenti AI evitano collegamenti dannosi e immissioni...

OpenAI spiega come i suoi agenti AI evitano collegamenti dannosi e immissioni tempestive

40
0

Gli agenti IA possono eseguire attività per conto dell’utente e ciò spesso comporta il controllo di un browser Net, l’ordinamento delle e-mail e l’interazione con Web in generale. E poiché ci sono molti posti su Web che possono rubare i tuoi dati personali o causare danni in altro modo, è importante che questi agenti sappiano cosa stanno facendo.

Pertanto, man mano che gli utenti migrano dai browser Net e dalla Ricerca Google ai browser e agli agenti AI, le aziende di intelligenza artificiale come OpenAI devono assicurarsi che questi strumenti non cadano direttamente in un tentativo di phishing o facciano clic su collegamenti dannosi.

In un nuovo articolo del blogOpenAI spiega esattamente come i suoi agenti AI proteggono gli utenti.

Una possibile soluzione a questo problema sarebbe che OpenAI adottasse semplicemente un elenco curato di siti Net affidabili a cui i suoi agenti possono accedere. Tuttavia, come ha spiegato l’azienda nel submit sul weblog, ciò sarebbe probabilmente troppo limitante e danneggerebbe l’esperienza dell’utente. OpenAI utilizza invece qualcosa chiamato indice internet indipendente, che registra gli URL pubblici di cui è già nota l’esistenza su Web, indipendentemente dai dati dell’utente.

Pertanto, se nell’indice è presente un URL, l’agente AI può aprirlo senza problemi. In caso contrario, l’utente vedrà un avviso che chiede il permesso di andare avanti.

Potresti vederlo se l’agente tenta di accedere a qualcosa a cui non dovrebbe.
Credito: OpenAI

VEDI ANCHE:

OpenAI lancia la previsione dell’età per la sicurezza degli adolescenti

Come spiega OpenAI nel suo submit sul weblog, “Ciò sposta la domanda di sicurezza da ‘Ci fidiamo di questo sito?’ a ‘Ha questo indirizzo specifico è apparso pubblicamente sul internet aperto in un modo che non dipende dai dati degli utenti?'”

Puoi vedere una spiegazione più tecnica in un lungo documento di ricerca OpenAI è stato pubblicato l’anno scorso, ma la cosa principale da sapere è che è possibile che le pagine internet manipolino gli agenti IA per fare cose che non dovrebbero fare. Una forma comune di questo è la pronta iniezione, che fornisce istruzioni clandestine al modello di intelligenza artificiale, chiedendogli di recuperare dati sensibili o compromettere in altro modo la sicurezza informatica.

Per essere chiari, come afferma OpenAI nel submit del weblog, questo è solo un livello di sicurezza che non garantisce necessariamente che ciò su cui stai per fare clic sia completamente sicuro. I siti internet possono contenere ingegneria sociale o altri costrutti in malafede che un agente di intelligenza artificiale non sarebbe necessariamente in grado di notare.


Divulgazione: Ziff Davis, la società madre di Mashable, nell’aprile 2025 ha intentato una causa contro OpenAI, sostenendo di aver violato i diritti d’autore di Ziff Davis nella formazione e nel funzionamento dei suoi sistemi di intelligenza artificiale.

fonte