Timnit Gebru: il promemoria "disumanizzante" di Google mi dipinge come una donna nera arrabbiata

102

Mercoledì, in una nota aziendale ai dipendenti, il CEO di Google Sundar Pichai si è detto dispiaciuto per il modo in cui la società ha licenziato Timnit Gebru, importante co-responsabile dell'etica dell'IA. Ha affermato di accettare "la responsabilità di lavorare per ripristinare la tua fiducia" e che la società sta ora valutando l'implementazione di "strategie di riduzione dell'escalation". Ha concluso i suoi commenti sul motivo per cui Google ha licenziato una delle più note ricercatrici di intelligenza artificiale di colore femminile al mondo affermando che la società considera la diversità una priorità.

In risposta al promemoria, Gebru ha detto che i commenti di Pichai giocano sul tropo che è una donna nera arrabbiata e ha definito il contenuto "disumanizzante".

Mercoledì in un'intervista con VentureBeat, Gebru ha parlato della cultura del posto di lavoro tossica nella Big Tech, del lavaggio etico, del mantenimento della ricerca sull'intelligenza artificiale libera dall'influenza aziendale e delle due cose che desidera che le giovani donne e le persone di colore interessate ad entrare nel campo dell'apprendimento automatico conoscere.

Da quando Google ha licenziato Gebru, molti dei suoi colleghi del team etico di Google AI, il resto dell'azienda e la più ampia comunità tecnologica hanno chiesto responsabilità e cambiamento. La scorsa settimana, più di 2.000 googler e oltre 3.700 sostenitori nel mondo accademico e industriale hanno firmato una petizione a sostegno di Gebru e definendo ciò che le è accaduto "un licenziamento di rappresaglia" e un caso di "censura della ricerca senza precedenti".

Gebru non lavora più per Google in seguito a una serie di email e alla richiesta di interrompere la ricerca sui rischi legati all'implementazione di modelli linguistici di grandi dimensioni, in particolare per l'ambiente e le comunità emarginate.

Prima di essere licenziata la scorsa settimana, Gebru era co-responsabile del team di etica dell'IA di Google e ha aiutato a riunire uno dei team più diversificati all'interno della divisione di ricerca di Google Brain. È anche cofondatrice di Black in AI e della conferenza di ricerca FAccT (Fairness, Accountability and Transparency) AI. Gebru fa parte di un coro di voci nella comunità di ricerca sull'equità algoritmica che afferma che i creatori di IA devono concentrare le comunità emarginate nel loro lavoro e affrontare i rischi e i danni associati all'implementazione di modelli di IA.

Questa intervista è stata modificata per brevità e chiarezza.

VentureBeat: Quali sono i tuoi pensieri sull'apparente impegno di Sundar di indagare su cosa è successo?

Timnit Gebru: penso che [Google] hanno appena visto tutto lo sfogo e che dovevano dire qualcosa, e quindi stanno dicendo qualcosa. Ma dato il gaslighting e il fatto che sta parlando di una strategia di de-escalation, facendomi sembrare una donna nera arrabbiata, sento che questa è solo una strategia per sedare ciò che sta accadendo in questo momento. Semplicemente non ci ho fiducia.

Mi dipingono come una donna nera arrabbiata perché ti mettono in questo terribile posto di lavoro, e se ne parli, allora diventi un problema, e poi iniziano a parlare di strategie di de-escalation.

Scrivi e-mail, vengono ignorate. Scrivi documenti e vengono ignorati. Poi discuti come è stato fatto e poi parlano di te come se fossi come una donna nera arrabbiata che ha bisogno di essere contenuta.

VentureBeat: Ci sono cambiamenti politici particolari che speri avvengano come risultato di quello che è successo?

Gebru: Sì, penso che ci siano un numero, ma voglio pensarci di più prima di dire qualsiasi cosa perché voglio essere intenzionale e attento quando suggerisco cambiamenti di politica.

VentureBeat: In che modo quello che ti è successo dovrebbe influenzare il modo in cui le persone si sentono riguardo all'influenza aziendale sulla ricerca?

Gebru: Molte persone ne hanno parlato. Tutte queste conferenze di ricerca sono ampiamente finanziate dall'industria, quindi in questo momento che cos'è la ricerca informatica? È come se avessi i militari e le società. Quali sono le nostre altre opzioni? Come a volte c'è NIH, ma deve solo esserci qualcosa che non è associato agli interessi militari o aziendali che finanzia la ricerca perché intrinsecamente c'è un conflitto di interessi. Non sto dicendo che non dovrebbe esserci ricerca nelle aziende. Penso che dovrebbe esserci, ma quando hai il tipo di cose come quello che vedi con me, e specialmente con il [research] censura, e poi vedi i tipi di influenza che hanno in queste conferenze, penso che sia qualcosa a cui le persone hanno davvero bisogno di pensare.

Il problema è che quando fai ricerche che richiedono molte risorse, questo diventa ancora più un problema. Questo è anche un po 'di quello di cui abbiamo parlato nel giornale.

VentureBeat: Uno dei primi tweet che ho letto dopo che sei stato licenziato è stato di qualcuno che ha detto che ci sono molte giovani donne e persone di colore interessate ad entrare nel campo del machine learning che stanno guardando questo episodio accadere in questo momento. Sono curioso: cosa vuoi che sappiano?

Gebru: Giovani donne di colore, voglio che sappiano che questi momenti sono necessari. Penso che questi momenti siano davvero difficili e ciò che è doloroso per me è il messaggio che questo invia. La storia più grande per me è se questo sta accadendo a me, cosa sta succedendo alle altre persone? Molte persone non hanno la piattaforma, la visibilità e il supporto di base che ho io, quindi immagina: cosa sta succedendo alle altre donne nere? E come possiamo ancora immaginare che le società di loro spontanea volontà con le loro iniziative sulla diversità faranno la cosa giusta?

Hai molestatori che escono con milioni di dollari. Hai tutte queste persone con comportamenti così tossici in cui le persone dicono "Ma sono troppo preziosi per l'azienda", "Oh, ma sono socialmente imbarazzanti" o qualsiasi altra cosa. E hai una donna nera che ha dovuto mettersi alla prova più e più volte. Sono finalmente arrivato a un punto in cui la mia esperienza è apprezzata dalle persone, ma lascia che te lo dica, non all'interno di Google. Ci sono state molte volte in cui la mia esperienza è stata completamente ignorata. Ne ho scritto nella mia e-mail.

Hai qualcuno il cui diretto manager e membri del team hanno corso dei rischi per sostenerla pubblicamente. Hai qualcuno la cui intera comunità è al suo fianco pubblicamente perché ho cofondato Black in AI con Rediet Abebe, e tutto ciò non è abbastanza per loro, non solo per determinare così velocemente che devo andare, ma per farlo in il modo più irrispettoso, e poi gioca nella narrativa arrabbiata della donna nera.

Quello che voglio che queste donne sappiano è che non è nella tua testa. Non è colpa vostra. Sei fantastico e non lasciare che il gaslighting ti fermi. Penso che con il gaslight la cosa più difficile sia che ci siano ripercussioni per aver parlato, ma c'è anche vergogna. Come molte volte le persone si vergognano perché si sentono come se in qualche modo ce l'avessero fatta.

Quindi so che è difficile sentire che non hai portato questo su di te e hai ragione, ma devi sentirti in quel modo. E il modo per farlo è stare intorno alle persone e avere quelle basi, avere intorno a te persone che lo affermano. Perché se sei solo intorno a persone come il vicepresidente che mi ha appena fatto questo e mi ha accorato, sentiresti costantemente che l'hai portato su te stesso. Questa è la prima cosa che direi.

La seconda cosa che vorrei dire è che questo è il motivo per cui è importante per te partecipare al nostro futuro tecnologico e dargli forma nella tua immaginazione. Lo ha detto il dottor Ramon Amaro nel nostro seminario Black in AI. Ruha Benjamin ne parla anche.

Questo è il motivo per cui è davvero importante per noi pensare a ciò che l'educazione scientifica ci sta facendo, il paradigma che ci stanno insegnando e perché l'unica opzione che ci viene data in questo momento è di assimilarci a questa struttura razzista e sessista, dove se osi uscire dal tuo posto e poi vieni spinto fuori come l'oggetto più scartabile. Non importa quanta esperienza hai. Non importa quanto supporto hai.

Quindi non è solo importante per te partecipare a questo futuro tecnologico, ma pensa a un futuro alternativo in cui la tua immaginazione possa plasmare il tipo di tecnologia che stiamo costruendo. Perché in questo momento, la tua immaginazione non sta dando forma al tipo di tecnologia che stiamo costruendo. Stiamo cercando di pulire dopo tutti gli uomini bianchi che ci hanno messo in questo pasticcio. Non stiamo creando tecnologia nella nostra immaginazione. Creano tecnologia nella loro immaginazione per servire i loro interessi, danneggia le nostre comunità e quindi dobbiamo eseguire la pulizia. Poi, mentre eseguiamo la pulizia, subiamo ritorsioni.

VentureBeat: Per quanto riguarda le persone che fanno cose senza conseguenze, che tipo di meccanismi di responsabilità ritieni siano necessari affinché la leadership nelle aziende Big Tech possa affrontare questioni di vecchia data?

Gebru: Quindi ti trovi in ​​un ambiente di lavoro tossico e cosa succede? Nessuno dei leader è avanzato perché ha creato un buon ambiente per le donne nere. Perché? Perché non hanno donne nere sotto di loro. Zero. Quindi tutti questi leader o leader che sono avanzati sono entrati nelle loro posizioni senza dover creare un ambiente vivibile e lavorabile per persone come me, e poi chi sono le persone che determinano se i leader stanno facendo bene? Gli altri leader – che sono le persone che determinano se le persone come il mio [former] manager Samy [Bengio] o altri ottengono buoni voti e calibrazione, ecc.? Sono quei leader che non sono già riusciti a creare alcun tipo di ambiente vivibile e respirabile per persone come me.

Quindi come ti aspetti che ritengano le altre persone responsabili quando loro stessi hanno creato ambienti ostili per persone come me? E hai visto cosa è appena successo. Mi hanno semplicemente spinto fuori il più velocemente possibile. Non hanno nemmeno avuto il tempo di mettere le cose in chiaro.

A loro non importa che … come, questa società non si preoccupa della diversità o dell'inclusione. Quindi sto cercando di pensare a cosa si potrebbe fare dall'esterno perché nient'altro funziona, e in effetti il ​​discorso a parole lo rende molto peggio perché è il gaslighting.

VentureBeat: Pensi che la retribuzione per i dirigenti delle aziende Big Tech dovrebbe essere legata a obiettivi di diversità in modo che ci sia un incentivo più forte di "Faremo meglio la prossima volta"?

Gebru: Voglio dire, sicuramente deve esserci qualcosa di meglio di "Faremo meglio la prossima volta". Mi chiedo se la loro paga … Voglio dire, sì, penso che la loro paga dovrebbe probabilmente essere direttamente collegata ad essa o qualcosa di reale. Qualcosa di reale deve essere direttamente collegato ai risultati.

L'altra cosa di cui mi preoccupo è che se questo genere di cose è nella politica, come diciamo che è legato alla loro paga, allora ci può essere una reazione da parte dei gruppi della supremazia bianca riguardo al dare ai neri una dispensa e tutta quella roba.

VentureBeat: alcuni ricercatori mi hanno detto che non capiscono perché la carta che hai scritto ha attirato una risposta così forte da parte di Google. Quanto pensi che quello che è successo abbia a che fare con il contenuto del giornale o qualcos'altro?

Gebru: Quello che penso è che ci sono molti componenti in questo. Forse il giornale aveva qualcosa a che fare con questo. Forse il giornale era una scusa e stavano cercando una ragione. Voglio dire, parliamo di grandi modelli linguistici [in the paper], ma non stiamo parlando specificamente di Google. Come BERT è utilizzato da Google nella ricerca e quindi potrebbe essere che siano un po 'sensibili a questo e vogliono censurare qualsiasi cosa che esce da Google che abbia qualcosa a che fare con questo tipo di cose. Ma il fatto è che non è solo la censura. È stato così irrispettoso il modo in cui è stato fatto. Oltre a tutto ciò, vogliono censurare il mio lavoro senza alcun tipo di discussione.

VentureBeat: Cosa vuoi fare dopo?

Gebru: Non sono ancora sicuro. Mi hanno letteralmente dimesso – mi piace questa parola che usa la mia squadra – mi hanno rassegnato nel bel mezzo delle mie vacanze, e ho detto che volevo tornare e discuterne dopo le vacanze. Quindi voglio solo prendere fiato. Non voglio essere in queste istituzioni che sono ostili alle donne nere. Penso di aver provato tutto il possibile per cercare di rendere un po 'vivibile queste istituzioni per persone come il team di intelligenza artificiale etica. Voglio assicurarmi che qualunque cosa faccio dopo, mi trovo in un ambiente sicuro che non mi illumini e non devo lottare così duramente per fare qualcosa che è importante per la mia comunità.