Il comunismo e le sitcom ispirano l'etica dell'IA in Salesforce

417

I Transform Technology Summit iniziano il 13 ottobre con Low-Code/No Code: Enabling Enterprise Agility. Iscriviti ora!

Una convinzione che Yakaira Núñez, vicepresidente della ricerca e degli approfondimenti presso Salesforce, tiene fermamente è che nello sviluppo del prodotto è altrettanto cruciale identificare il pubblico non target e considerarlo nella propria tabella di marcia.

"Comunicare con obiettivi non intenzionali per vedere se potrebbero esserci o meno opportunità per nuovi sviluppi, prodotti o funzionalità", ha detto a VentureBeat. “Ma anche per aiutare a gestire qualsiasi rischio”.

Questo approccio per affrontare il pregiudizio e la mancanza di rappresentazione nei dati e negli algoritmi di intelligenza artificiale deriva da molti aspetti dell'esperienza vissuta di Núñez: crescere comunista, il divario tecnologico tra lei e i suoi cugini nella Repubblica Dominicana e persino guardare The Good Place della NBC. Ed è ciò che ha lavorato per infondere in Salesforce, dove non solo guida un team interdisciplinare che cura i dati per le decisioni sui prodotti, ma funge anche da salvaguardia per gli algoritmi e i prodotti AI di Salesforce.

Per saperne di più sulla prospettiva e l'approccio di Núñez alla disputa dei dati e all'eliminazione dei pregiudizi, abbiamo parlato del suo background, del suo lavoro in Salesforce e dei suoi consigli per creare prodotti in modo più ponderato.

Questa intervista è stata modificata per brevità e chiarezza.

VentureBeat: Parlami un po' del tuo background e di cosa fai in Salesforce.

Yakaira Núñez: Supporto l'organizzazione della piattaforma presso Salesforce: sono i nostri strumenti di sicurezza, privacy, sviluppatori e amministrazione e quelli che chiamiamo "servizi affidabili". Fondamentalmente, tutte le cose su cui le persone si basano utilizzando Salesforce per far funzionare le loro implementazioni e continuare a ottimizzare e migliorare le loro esperienze Salesforce. E lavoro con ricercatori di più discipline, principalmente antropologia, sociologia e interazione uomo-computer (HCI). Ho un background in HCI e in Salesforce mi sono concentrato su ricerca e approfondimenti. E una cosa che traggo nel mio lavoro qui è un background nella responsabilità civica e inclinazioni abbastanza socialiste. I miei genitori erano comunisti tesserati e io sono considerato un bambino con il pannolino rosso. E questo mi ha dato l'opportunità di imparare cosa significa comunità e, fin dalla più tenera età, di pensare all'impatto di tutte le cose che accadono sul corpo più ampio dell'umanità. Quindi sono stato molto attivo nelle iniziative antirazziste e di sostenibilità, perché trovo che queste cose siano strettamente legate. E l'ho tessuto attraverso una sorta di etica di ciò che porto al mio team e di come facciamo ricerca all'interno di Salesforce.

VentureBeat: Voglio saltare più in profondità in quella ricerca in un momento. Ma una cosa che trovo davvero interessante di quello che hai appena detto riguarda il background in sociologia, antropologia e simili. Molte persone pensano all'IA solo in termini di scienziati informatici. Quindi puoi parlare un po' di come queste altre discipline si integrano e sono importanti nel contesto dei dati e dell'intelligenza artificiale?

Núñez: Antropologi, ricercatori e sociologi creano tutti dati, ma in modi diversi. Non è con un foglio di calcolo Excel, ma piuttosto è derivato da domande davvero buone che pongono al loro ambiente e alle persone con cui interagiscono. E quindi alla tua domanda, sono un altro input nel modo in cui costruiamo i prodotti perché stanno portando la catena del valore di ciò di cui gli umani hanno bisogno e come potrebbero interagire con i nostri prodotti. E stanno elaborando quelle informazioni in modo che possano essere consumate dalle nostre organizzazioni di prodotto o dagli algoritmi che creiamo, in modo da poter costruire prodotti migliori in futuro. Quindi, in effetti, diventiamo una specie di datamonger, come un pescivendolo. E direi che siamo importanti quanto qualsiasi altro servizio di raccolta dati all'interno del ciclo di vita dello sviluppo del prodotto. E immagino che dovrei menzionare la versione alternativa della raccolta dei dati, che consiste nel raccogliere dati sul modo in cui le persone utilizzano il tuo prodotto, giusto? Perché potrebbe essere per clic o visualizzazioni, ma tutto questo è il "cosa" e ciò che antropologi e sociologi scoprono è il "perché". E così bilanciare questi due insieme informa quella che potrebbe essere la migliore soluzione statale futura possibile.

VentureBeat: E quando pensiamo a come le persone interagiscono con prodotti e tecnologie, quali sono alcune delle conseguenze di dati errati e algoritmi di intelligenza artificiale mal addestrati che stanno già avendo un impatto sulla vita delle persone o potrebbero farlo in futuro? E in che modo queste conseguenze influenzano in modo sproporzionato le popolazioni storicamente discriminate?

Núñez: Il pregiudizio è intrinseco. Quelli con accesso a Internet hanno più opportunità e più accesso in generale rispetto a quelli che non lo fanno. Solo dal punto di vista della classe, perché ero negli Stati Uniti e i miei genitori erano accademici e avevamo un po' più di soldi, esistono dati che mi rappresentano, mentre i dati per i miei cugini — che vivevano in una baraccopoli della Repubblica Dominicana e non ho avuto accesso fino a anni dopo di me – non l'ho fatto. E non puoi creare algoritmi che rappresentino individui che non hanno dati nel sistema. Periodo.

E in termini di conseguenze associate a quella mancanza di rappresentazione, ciò si traduce in individui diversi. Non vengono nemmeno presi in considerazione, e quindi nemmeno i loro bisogni. Se esiste un algoritmo per la copertura assicurativa, perché queste persone che non hanno accesso a Internet e che non sono rappresentate nei dati dovrebbero mai essere considerate come una variabile per informare se dovrebbero o meno ottenere un'assicurazione? Avendo vissuto a New Orleans, ho visto che alcune persone non hanno avuto problemi a ottenere i loro soldi dalla FEMA per ricostruire le loro case, mentre altri hanno avuto molte difficoltà. E quindi, perché? Perché non erano rappresentati dai dati che venivano raccolti dalle compagnie di assicurazione. Il pregiudizio è stato il mio primo pensiero negli ultimi tempi, ma penso anche a quegli individui che non sono rappresentati su così tanti livelli diversi.

VentureBeat: E, naturalmente, è pervasivo nel campo. Quindi sono interessato a sapere cosa pensi che potremmo fare al riguardo? Quali misure potrebbero intraprendere coloro che utilizzano l'intelligenza artificiale, in particolare le imprese, per affrontare e mitigare questi problemi e rischi?

Núñez: Quando stai costruendo un prodotto, tutti riconosciamo che ci sono questi mercati target a cui stai cercando di vendere. Ma è fondamentale identificare anche le persone a cui non ti stai rivolgendo, assicurarti che facciano parte del tuo piano di ricerca e considerarle. Comunicare con obiettivi non intenzionali per vedere se potrebbero esserci o meno opportunità per nuovi sviluppi, prodotti o funzionalità, ma anche per aiutare a gestire eventuali rischi. Il modo più semplice per pensarci è se hai costruito un prodotto che non era destinato all'uso da parte dei bambini, ma ora i bambini lo stanno usando. Oh no! Avremmo dovuto intervistare i bambini per scoprire dove poteva esserci stata una sfida. Sarebbe stato un rischio, ma poteva anche essere un'opportunità. La gestione del rischio è due facce della medaglia, ma apre anche le porte a opportunità costruite con cura perché hai considerato tutti i mercati target, i mercati target non intenzionali e i rischi associati a quelli.

VentureBeat: Capisco che in Salesforce tu e il tuo lavoro agite come una sorta di salvaguardia per l'intelligenza artificiale e i prodotti dell'azienda. Che aspetto ha per un determinato prodotto? E come bilanciare l'obiettivo di creare una migliore intelligenza artificiale con gli interessi del business e le difficoltà tecniche della cura dei dati?

Núñez: Bene, hai appena descritto il ciclo di vita dello sviluppo del prodotto, che è sempre un atto di equilibrio tra tutte queste cose. E quindi quello che ho visto funzionare è intrecciare conversazioni attraverso il ciclo di vita dello sviluppo del prodotto in modo che proprietari di prodotti, designer e ricercatori possano sentirsi parte della narrativa. Mettere l'onere su una persona di essere una sorta di guardiano crea solo una barriera psicologica e la sensazione che non puoi muoverti rapidamente a causa di questa persona. Tutti dovrebbero avere una sorta di responsabilità e questo aiuta anche a costruire un prodotto migliore a lungo termine. Ognuno di noi dovrebbe avere i propri controlli e contrappesi associati alle nostre funzioni. Ora, ovviamente, è una sorta di aspirazione: che tutti capiscano l'etica e l'intelligenza artificiale. E riconosco che non ci siamo. Ma noi, come esseri umani che costruiscono prodotti, dovremmo essere responsabili e informati sulle basi di ciò che significa essere etici.

VentureBeat: È davvero interessante sapere come stai pensando e come ti stai avvicinando a questo. Potresti condividere un esempio di un periodo in Salesforce in cui stavi affrontando una di queste sfide o cercando di prevenire alcune di queste conseguenze dannose?

Núñez: Di recente, abbiamo avuto uno stagista di ricerca che si stava concentrando sull'esplorazione di campi sensibili e sull'identificazione di una sorta di valore generalizzato dell'etica. Ad esempio, qual è il valore dell'etica? I nostri clienti ne parlano? E se non lo sono, cosa dovremmo esplorare e cosa potremmo fornire ai nostri clienti in modo che lo considerino al primo posto? C'erano esplorazioni in giro se offrire strumenti per aiutare a gestire e mitigare il rischio avrebbe reso qualcuno più incline all'acquisto di Salesforce, così come esplorazioni molto specifiche sulle funzionalità che spediremo e se saranno percepite come positive o negative. Nessuno abbaierà sul tuo prodotto se fornisci caratteristiche etiche, ma questo, ovviamente, provoca la prossima domanda: cosa pagheranno per questo? E non ho una risposta per te su quello.

VentureBeat: In base alla tua esperienza in questo lavoro, hai altri consigli o suggerimenti da condividere? C'è qualcosa che vorresti sapere prima?

Núñez: Vorrei averci creduto prima quando la gente mi ha detto che The Good Place è in realtà un ottimo modo per conoscere l'etica. Lo spettacolo è utile solo per insegnare posizioni etiche, e le persone nel circolo etico spesso citano e parleranno perché in realtà è un fondamento. Se hai intenzione di costruire prodotti, fallo per te o per gli altri, ma assicurati anche di farlo per il bene comune. E sì, fare soldi dovrebbe essere una parte di quella storia, ma il corso dovrebbe essere quello di essere buono per gli altri e costruire cose fantastiche.

VentureBeat

La missione di VentureBeat è quella di essere una piazza cittadina digitale per i responsabili delle decisioni tecniche per acquisire conoscenze sulla tecnologia trasformativa e sulle transazioni.

Il nostro sito fornisce informazioni essenziali sulle tecnologie e sulle strategie dei dati per guidarti nella guida delle tue organizzazioni. Ti invitiamo a diventare un membro della nostra community, per accedere a:

  • informazioni aggiornate sugli argomenti di tuo interesse
  • le nostre newsletter
  • contenuti gated leader di pensiero e accesso scontato ai nostri eventi preziosi, come Trasforma 2021: Per saperne di più
  • funzioni di rete e altro

Diventare socio