Segui ZDNET: Aggiungici come fonte preferita su Google.
I principali punti salienti di ZDNET
- La responsabilità e la sicurezza dell’IA sono le questioni principali per il 2026.
- La migliore salvaguardia è costruire l’IA in una sandbox.
- Mantieni lo sviluppo dell’intelligenza artificiale semplice e aperto.
L’autore del libro L’avvocato LincolnMichael Connelly, ha rivolto la sua attenzione ai problemi che stanno dietro l’intelligenza artificiale aziendale sfrenata. La sua ultima opera di narrativa, Il banco di provaparla di un avvocato che intenta una causa civile contro una società di intelligenza artificiale “il cui chatbot ha detto a un ragazzo di sedici anni che period giusto per lui uccidere la sua ex ragazza per la sua slealtà”.
Anche: Il tuo strumento di intelligenza artificiale preferito è stato a malapena superato da questa revisione della sicurezza: perché è un problema
Il libro descrive il caso, che “esplora il enterprise dell’intelligenza artificiale, per lo più non regolamentato e in forte espansione, e la mancanza di barriere di formazione”.
Anche se si tratta di un’opera di finzione, e il caso presentato è estremo, è un importante promemoria del fatto che l’intelligenza artificiale può uscire dai binari etici o logici in molti modi – attraverso pregiudizi, cattivi consigli o indicazioni sbagliate – con ripercussioni. Allo stesso tempo, almeno una voce di spicco nel campo dell’intelligenza artificiale consiglia di non esagerare con i tentativi di regolamentare l’intelligenza artificiale, rallentando nel processo l’innovazione.
È necessario equilibrio
Come riportato a novembre, almeno sei aziende su dieci (61%) in un sondaggio PwC affermano che l’intelligenza artificiale responsabile è attivamente integrata nelle loro operazioni principali e nei processi decisionali.
È necessario trovare un equilibrio tra governance e velocità, e questa sarà la sfida per i professionisti e le loro organizzazioni nel prossimo anno.
Andrew Ng, fondatore di DeepLearning.AI e professore a contratto presso l’Università di Stanford, afferma che controllare tutte le applicazioni di intelligenza artificiale attraverso un approccio sandbox è il modo più efficace per mantenere questo equilibrio tra velocità e responsabilità.
Anche: Il nuovo equilibrio del chief dell’IA: cosa cambia (e cosa resta) nell’period degli algoritmi
“Molti dei staff più responsabili in realtà si muovono molto velocemente”, ha affermato in un recente settore nota chiave e follow-up tavola rotonda. “Testiamo il software program in ambienti sicuri e sandbox per capire cosa c’è che non va prima di diffonderlo nel mondo più ampio.”
Allo stesso tempo, le recenti spinte verso un’intelligenza artificiale responsabile e governata – sia da parte dei governi che delle stesse aziende – potrebbero effettivamente esserlo pure prepotente, ha detto.
“Molte aziende mettono in atto meccanismi di protezione. Prima di spedire qualcosa, è necessaria l’approvazione legale, l’approvazione del advertising and marketing, la revisione del marchio, la revisione della privateness e la conformità al GDPR. Un ingegnere deve ottenere l’approvazione di cinque VP prima di fare qualsiasi cosa. Tutto si ferma “, ha detto Ng.
La migliore pratica è “muoversi velocemente creando preventivamente sandbox”, ha continuato. In questo situation, “mettere in atto una serie di regole per dire ‘non spedire materiale esternamente sotto il marchio dell’azienda’, ‘nessuna informazione sensibile che possa essere divulgata’, qualunque cosa. Viene testato solo sui dipendenti dell’azienda sotto NDA, con solo un finances di $ 100.000 in token AI. Creando sandbox garantiti sicuri, questo può creare molto spazio affinché i staff di prodotto e di ingegneria possano correre molto velocemente e provare le cose internamente.”
Una volta che un’applicazione AI è ritenuta sicura e responsabile, “investi nella scalabilità, nella sicurezza e nell’affidabilità per portarla su larga scala”, ha concluso Ng.
Mantienilo semplice
Dal punto di vista della governance, un approccio “keep-it-semplice” può aiutare a mantenere l’IA fuori, in modo chiaro e aperto.
“Poiché ora ogni staff, compresi quelli non tecnici, utilizza l’intelligenza artificiale per lavoro, per noi period importante stabilire regole chiare e semplici”, ha affermato Michael Krach, responsabile dell’innovazione presso JobLeads. “Chiarire dove l’intelligenza artificiale è consentita e dove no, quali dati aziendali può utilizzare e chi deve rivedere le decisioni advert alto impatto.”
Anche: Perché modelli di ragionamento complessi potrebbero rendere più facile individuare i comportamenti anomali dell’intelligenza artificiale
“È importante che le persone credano che i sistemi di intelligenza artificiale siano equi, trasparenti e responsabili”, ha affermato Justin Salamon, associate di Radiant Product Improvement. “La fiducia inizia con la chiarezza: essere aperti su come viene utilizzata l’intelligenza artificiale, da dove provengono i dati e come vengono prese le decisioni. Cresce quando i chief implementano un processo decisionale equilibrato che coinvolge l’uomo nel ciclo, una progettazione etica e take a look at rigorosi per verificare bias e accuratezza.”
Story fiducia deriva dall’essere espliciti con i dipendenti riguardo alle intenzioni della loro azienda riguardo all’intelligenza artificiale. Sii chiaro riguardo alla proprietà, ha consigliato Krach. “Ogni funzionalità dell’intelligenza artificiale dovrebbe avere qualcuno responsabile per potenziali fallimenti o successi. Testa e ripeti e, una volta che ti senti sicuro, pubblica una carta dell’intelligenza artificiale in inglese semplice in modo che dipendenti e clienti sappiano come viene utilizzata l’intelligenza artificiale e si fidino di te su questo argomento.”
I principi chiave dell’IA responsabile
Quali sono gli indicatori di un approccio responsabile all’IA che dovrebbe essere sul radar di dirigenti e professionisti nel prossimo anno?
Anche: Desideri un ROI reale sull’intelligenza artificiale per il tuo enterprise? Potrebbe finalmente accadere nel 2026: ecco perché
Gli otto principi chiave dell’IA responsabile sono stati recentemente pubblicati pubblicato dal Dr. Khulood Almani, fondatore e CEO di HKB Tech:
- Anti-bias: eliminare la discriminazione.
- Trasparenza e spiegabilità: rendi le decisioni sull’intelligenza artificiale chiare, tracciabili e comprensibili.
- Robustezza e sicurezza: evita danni, guasti e azioni involontarie.
- Responsabilità: assegnare una responsabilità chiara per le decisioni e i comportamenti dell’IA.
- Privateness e protezione dei dati: proteggere i dati personali.
- Impatto sociale: considerare gli effetti a lungo termine sulle comunità e sulle economie.
- Design incentrato sull’uomo: dare priorità ai valori umani in ogni interazione.
- Collaborazione e coinvolgimento di più stakeholder: coinvolgere regolatori, sviluppatori e pubblico.
,











