Candidarsi per un lavoro già di per sé fa schifo. Ma sempre più spesso le persone in cerca di lavoro si chiedono se un sistema di intelligenza artificiale li stia escludendo prima che un essere umano veda la loro candidatura.
Una nuova causa spera di cambiare la situazione imponendo una maggiore trasparenza sul funzionamento degli strumenti di assunzione basati sull’intelligenza artificiale. Il caso sostiene che i “punteggi” automatizzati dei candidati dovrebbero essere trattati legalmente come controlli del credito ed essere soggetti alle stesse leggi sulla tutela dei consumatori.
L’azione collettiva proposta è stata presentata mercoledì presso il tribunale dello stato della California da due donne che lavorano nel settore STEM che affermano che gli addetti allo screening dell’intelligenza artificiale le hanno escluse dai lavori per cui erano qualificate.
“Ho fatto domanda per centinaia di posti di lavoro, ma ho la sensazione che una forza invisibile mi stia impedendo di essere giustamente considerata”, ha detto Erin Kistler, una delle querelanti, in una comunicato stampa. “È scoraggiante e so di non essere il solo a sentirmi in questo modo.”
E ha ragione nel non essere l’unica persona a sentirsi così in un momento in cui sempre più aziende si affidano all’intelligenza artificiale per le assunzioni. Secondo il rapporto, circa l’88% delle aziende ora utilizza una qualche forma di intelligenza artificiale per lo screening iniziale dei candidati Forum economico mondiale.
La causa prende di mira specificamente Eightfold, una società di risorse umane basata sull’intelligenza artificiale che vende strumenti progettati per aiutare i datori di lavoro a gestire il reclutamento e le assunzioni. Tra le sue offerte c’è uno strumento che genera un punteggio numerico che prevede la probabilità che un candidato sia adatto per un determinato ruolo.
Quel sistema di punteggio è al centro del caso. Il “punteggio di corrispondenza” di Eightfold viene generato utilizzando informazioni estratte da una varietà di fonti, tra cui offerte di lavoro, competenze desiderate dal datore di lavoro, candidature e, in alcuni casi, LinkedIn. Il Modello prevede poi un punteggio compreso tra zero e cinque che “aiuta a prevedere il grado di corrispondenza tra un candidato e una posizione lavorativa.”
La causa sostiene che questo processo produce effettivamente un “rapporto al consumatore” ai sensi del Honest Credit score Reporting Act (FCRA), una legge federale approvata nel 1970 per regolamentare le agenzie di credito e le società di controllo dei precedenti. Poiché il punteggio aggrega le informazioni personali e le traduce in una classifica utilizzata per determinare l’idoneità per “scopi di lavoro”, la causa sostiene che Eightfold dovrebbe essere tenuto a seguire le stesse regole che si applicano alle agenzie di informazione creditizia.
Tali regole includono la notifica ai richiedenti quando viene creato story rapporto, l’ottenimento del loro consenso e la possibilità di contestare eventuali informazioni inesatte.
“Eightfold ritiene che le accuse siano prive di merito. La piattaforma di Eightfold funziona su dati condivisi intenzionalmente dai candidati o forniti dai nostri clienti”, ha detto a Gizmodo un portavoce di Eightfold in una dichiarazione inviata through electronic mail. “Non eliminiamo i social media e simili. Siamo profondamente impegnati a favore di un’intelligenza artificiale responsabile, della trasparenza e del rispetto delle leggi applicabili sulla protezione dei dati e sul lavoro.”
Tuttavia, la causa chiede un’ordinanza del tribunale che imponga a Eightfold di rispettare le leggi statali e federali sulla segnalazione dei consumatori, nonché i danni finanziari.
“In tutto il paese ai lavoratori qualificati vengono negate opportunità di lavoro sulla base di valutazioni automatizzate che non hanno mai visto e che non possono correggere”, ha affermato Jenny R. Yang, avvocato responsabile del caso ed ex presidente della Commissione statunitense per le pari opportunità di lavoro. “Questi sono i danni reali che il Congresso ha cercato di prevenire quando ha promulgato la FCRA. Man mano che gli strumenti di assunzione si evolvono, le aziende di intelligenza artificiale come Eightfold devono rispettare queste tutele legali di buon senso intese a proteggere gli americani di tutti i giorni”.












