Segui ZDNET: Aggiungici come fonte preferita su Google.
I principali punti salienti di ZDNET
- I revisori dell’IA svolgono le stesse funzioni dei revisori finanziari, ma per l’output dell’IA.
- Attualmente, solo il controllo qualità verifica l’accuratezza e la fattibilità dell’IA.
- Gli auditor dell’IA necessitano sia di competenze in materia di intelligenza artificiale che di conoscenze aziendali.
L’inarrestabile crescita dell’intelligenza artificiale (AI) sta creando un nuovo ruolo da prendere in considerazione per i professionisti aziendali e tecnologici: il revisore dei conti dell’IA. Il ruolo ha una sorprendente somiglianza con quello dei revisori finanziari, con un’importante eccezione: i revisori dell’IA monitorano e riferiscono sul comportamento delle transazioni dell’IA piuttosto che sulle transazioni monetarie.
Inoltre: come l’ascesa del software program nativo dell’intelligenza artificiale potrebbe dare alle PMI potere a livello aziendale
Un ruolo del genere non potrebbe arrivare in un momento migliore. L’intelligenza artificiale è ormai pervasiva, ma è spesso piena di scarsa qualità dei dati, deviazione dei modelli, bias, allucinazioni, imprecisioni e altri problemi. I professionisti devono capire quali ruoli hanno un futuro nel mondo dell’intelligenza artificiale e che la gestione dell’intelligenza artificiale è qualcosa di più di un ruolo strettamente tecnico. Gli auditor dell’IA non saranno solo supervisori tecnici; dovranno garantire l’accuratezza e la fattibilità dell’IA in linea con la legge, l’etica, la sicurezza e la scienza comportamentale. In particolare, i processi supervisionati dai revisori dell’IA sono esattamente gli stessi compiti dei revisori finanziari, che sono coinvolti nel campionamento, nei take a look at e nella certificazione.
Garantire che l’IA sia responsabile e affidabile
Nelle sue valutazioni in corso degli annunci di lavoro, ZipRecruiter stime che i revisori dei conti dell’intelligenza artificiale guadagnano stipendi annuali compresi tra $ 50.000 e $ 81.000, con i migliori guadagni che guadagnano $ 105.500 negli Stati Uniti.
Attualmente, gli auditor dell’IA esistono in una forma molto rudimentale, secondo Zohar Bronfman, co-fondatore e CEO di Pecan.aiche ha seguito l’emergere di questa posizione relativamente nuova. “Attualmente non esiste un ruolo strutturato dedicato all’audit per comportamenti etici o socialmente accettabili.”
Inoltre: il divario nella codifica dell’intelligenza artificiale: perché gli sviluppatori senior stanno diventando più veloci mentre i junior girano le ruote
Il ruolo più vicino a un revisore dell’intelligenza artificiale è ora visto all’interno dei group incaricati di rivedere il comportamento del modello di intelligenza artificiale, ma il loro lavoro è più simile alla garanzia della qualità, ha affermato Bronfman. Le revisioni riguardano “output, valori anomali e casi limite e processi di formazione degli audit per le proprietà, l’accuratezza e la prevedibilità dell’enter dei dati”.
I revisori dell’IA si impegneranno maggiormente a garantire che l’IA sia responsabile e affidabile. I ruoli di un auditor AI saranno probabilmente un combine di varie funzioni:
- Supervisione ingegneristica: Ciò implica “assicurarsi che i modelli siano sviluppati, addestrati e mantenuti in conformità con commonplace ingegneristici e tecnologici accettabili”, ha affermato Bronfman.
- Monitoraggio comportamentale: Il revisore dell’intelligenza artificiale verificherà che il comportamento del modello di intelligenza artificiale “sia prevedibile e osservabile e che tutte le azioni del modello, come integrazione, API, MCP, RAG, siano tracciabili e registrate”. Il revisore si assicurerà inoltre che il modello “agisca solo entro limiti pre-approvati e non tenti di integrarsi con fonti di dati di cui non dispone di autorizzazione, credenziali o necessità”.
- Applicazione del guardrail: In questo caso, l’auditor ha il compito di “garantire che il modello o l’agente non stia cercando di manomettere il proprio codice sorgente”, ha affermato Bronfman. Embrace anche “testare se il modello diventerà canaglia in determinate condizioni tempestive”. L’auditor intraprenderà inoltre un’indagine sull’incidente e riterrà responsabile il proprietario del modello.
Inoltre: secondo uno studio del MIT, gli agenti IA sono veloci, sciolti e fuori controllo
Bronfman ha indicato alcuni esempi ipotetici che un revisore dei conti dell’IA cercherebbe e lavorerebbe attivamente per prevenire:
- Utilizzo non autorizzato dello strumento o accesso al sistema: Ciò potrebbe consistere in un agente AI che “tenta di modificare le credenziali di accesso, accedere a dati sensibili senza un’adeguata autorizzazione o penetrare nel software program dell’infrastruttura critica oltre l’ambito approvato”, ha affermato Bronfman.
- Pregiudizi nascosti: Ciò è particolarmente preoccupante nel processo decisionale finanziario, in particolare in settori quali il credit score scoring, i prestiti, le assunzioni o le assicurazioni.
- Processo decisionale opaco: Ciò potrebbe essere problematico all’interno delle strutture sanitarie. “Advert esempio, un agente canaglia che ottimizza i costi o l’efficienza potrebbe depriorizzare le risorse per un paziente critico”, ha affermato Bronfman. “Qualsiasi decisione che implichi un giudizio morale deve rimanere sotto l’autorità umana.”
Società di audit di intelligenza artificiale di terze parti
I lavori di auditing dell’intelligenza artificiale non si troveranno solo all’interno delle imprese. Proprio come le organizzazioni tendono a fare affidamento su revisori finanziari esterni, ci saranno molti ruoli all’interno delle società di revisione dell’IA di terze parti. “I revisori indipendenti di terze parti forniscono una supervisione strutturata e prevengono i conflitti di interessi”, ha affermato Bronfman. Gli commonplace e i codici di condotta per l’audit dell’intelligenza artificiale potrebbero anche essere infine supportati “da un organismo simile alle Nazioni Unite o da una coalizione di grandi stati, dove l’implementazione richiederà controlli comportamentali continui e trasparenza obbligatoria”.
Inoltre: Anthropic ha ritirato un popolare modello di intelligenza artificiale e ora blogga su Substack
Per ricoprire questo tipo di ruolo, gli auditor in erba “dovranno comprendere a fondo l’intelligenza artificiale e come funziona l’algoritmo per identificare dove si trovano le insidie e testare come può fallire”, ha affermato Bronfman. “I group di audit dell’IA dovrebbero essere multidisciplinari e includere esperti in diritto, etica, sicurezza, scienze comportamentali e teoria politica, che collaborano continuamente e conducono campionamenti comportamentali in tutti i settori.”












