Il gruppo di dipendenti di Google esorta il Congresso a rafforzare la protezione degli informatori per i ricercatori di intelligenza artificiale

0
21

Unisciti a Transform 2021 per i temi più importanti nell'intelligenza artificiale e nei dati aziendali. Per saperne di più.

La decisione di Google di licenziare i suoi leader di etica dell'IA è una questione di "preoccupazione pubblica urgente" che merita di rafforzare le leggi per proteggere i ricercatori di intelligenza artificiale e i lavoratori tecnologici che vogliono agire come informatori. Questo secondo una lettera pubblicata oggi dai dipendenti di Google a sostegno del team di Ethical AI di Google e degli ex co-lead Margaret Mitchell e Timnit Gebru, che Google hanno licenziato rispettivamente due settimane fa e nel dicembre 2020.

Il licenziamento di Gebru, una delle ricercatrici di IA di sesso femminile più note al mondo e una delle poche donne di colore di Google, ha suscitato l'opposizione pubblica di migliaia di dipendenti di Google. Ha anche portato i critici a sostenere che l'incidente potrebbe aver distrutto la pipeline di talenti neri di Google e segnalato il collasso della ricerca sull'etica dell'IA negli ambienti aziendali.

"Dobbiamo resistere insieme ora, o il precedente che abbiamo stabilito per il campo – per l'integrità della nostra ricerca e per la nostra capacità di controllare il potere della grande tecnologia – fa presagire un triste futuro per tutti noi", si legge nella lettera pubblicata da il gruppo Google Walkout for Change. "I ricercatori e altri lavoratori tecnologici hanno bisogno di protezioni che permettano loro di chiamare la tecnologia dannosa quando la vedono, e la protezione degli informatori può essere un potente strumento per proteggersi dai peggiori abusi delle entità private che creano queste tecnologie".

Google Walkout for Change è stato creato nel 2018 dai dipendenti di Google che si sono organizzati per forzare il cambiamento in Google. Secondo gli organizzatori, lo sciopero globale di quell'anno ha coinvolto 20.000 googler in 50 città in tutto il mondo.

La lettera esorta anche le conferenze accademiche a rifiutarsi di rivedere i documenti sottoposti a revisione da parte di avvocati aziendali e ad iniziare a rifiutare la sponsorizzazione da parte delle imprese che si vendicano contro i ricercatori di etica. "Troppe istituzioni di istruzione superiore sono indissolubilmente legate ai finanziamenti di Google (insieme ad altre società Big Tech), con molti docenti che hanno appuntamenti congiunti con Google", si legge nella lettera.

La lettera indirizzata ai legislatori statali e nazionali cita un articolo di VentureBeat pubblicato due settimane dopo che Google ha licenziato Gebru sui potenziali risultati politici che potrebbero includere modifiche alle leggi sulla protezione degli informatori e alla sindacalizzazione. Quell'analisi – che si è basata su conversazioni con esperti di etica, giurisprudenza e politiche – cita la co-direttrice dell'UC Berkeley Center for Law and Technology Sonia Katyal, che ha analizzato le leggi sulla protezione degli informatori nel 2019 nel contesto dell'IA. In un'intervista con VentureBeat alla fine dell'anno scorso, Katyal li ha definiti "totalmente insufficienti".

“Quello di cui dovremmo preoccuparci è un mondo in cui piace a tutti i ricercatori di maggior talento [Gebru] essere assunto in questi luoghi e poi effettivamente messo la museruola dal parlare. E quando ciò accade, la protezione degli informatori diventa essenziale ", ha detto Katyal a VentureBeat.

VentureBeat ha parlato con due fonti che hanno familiarità con l'etica e le questioni politiche di Google AI che hanno affermato di voler vedere una maggiore protezione degli informatori per i ricercatori di IA. Una persona che ha familiarità con la questione ha detto che in Google e in altre aziende tecnologiche, le persone a volte sanno che qualcosa non funziona, ma non lo risolveranno perché non vogliono o non sanno come farlo.

"Sono bloccati in questo strano posto tra fare soldi e rendere il mondo più equo, e a volte quella tensione intrinseca è molto difficile da risolvere", la persona, che ha parlato a condizione di anonimato, ha detto a VentureBeat. "Ma credo che dovrebbero risolverlo perché se vuoi essere un'azienda che tocca miliardi di persone, allora dovresti essere responsabile e ritenuto responsabile di come tocchi quei miliardi di persone".

Dopo che Gebru è stato licenziato, quella fonte ha descritto la sensazione tra le persone di gruppi sottorappresentati di Google che se si spingono troppo oltre ora potrebbero essere percepiti come ostili e le persone inizieranno a presentare reclami per spingerli fuori. Ha detto che questo crea una sensazione di "vera insicurezza" sul posto di lavoro e un "profondo senso di paura".

Ha anche detto a VentureBeat che quando guardiamo alla tecnologia con il potere di plasmare la vita umana, abbiamo bisogno di persone durante tutto il processo di progettazione con l'autorità di ribaltare decisioni potenzialmente dannose e assicurarci che i modelli imparino dagli errori.

"Senza questo, corriamo il rischio di … consentire ad algoritmi che non comprendiamo di plasmare letteralmente la nostra capacità di essere umani, e che intrinsecamente non è giusto", ha detto.

La lettera critica anche la leadership di Google per "molestare e intimidire" non solo Gebru e Mitchell, ma anche altri membri del team di Ethical AI. Secondo quanto riferito, ai membri del team di intelligenza artificiale etica è stato detto di rimuovere i loro nomi da un documento in fase di revisione al momento del licenziamento di Gebru. L'ultima copia di quel documento, intitolata "On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?" è stato pubblicato questa settimana alla conferenza sull'etica dell'IA Fairness, Accountability and Transparency (FAccT) e non elenca autori di Google. Ma una copia del documento ottenuto da VentureBeat elenca Mitchell come coautore del documento, così come altri tre membri del team di Ethical AI, ciascuno con una vasta esperienza nell'esame dei pregiudizi nei modelli linguistici o nel linguaggio umano. Il capo di Google AI Jeff Dean ha messo in dubbio la veridicità della ricerca rappresentata in quel documento in un'e-mail a Google Research. La scorsa settimana, gli organizzatori di FAccT hanno detto a VentureBeat che l'organizzazione ha sospeso la sponsorizzazione da parte di Google.

La lettera pubblicata oggi invita accademici e responsabili delle politiche ad agire e segue le modifiche alle politiche sulla diversità aziendale e la riorganizzazione di 10 team all'interno di Google Research. Questi includono Ethical AI, ora sotto il VP di Google Marian Croak, che riferirà direttamente al capo dell'IA Jeff Dean. Come parte del cambiamento, Google raddoppierà il personale dedicato alla fidelizzazione dei dipendenti e adotterà criteri per coinvolgere gli specialisti delle risorse umane quando determinate uscite dei dipendenti sono ritenute sensibili. Mentre il CEO di Google Sundar Pichai ha menzionato migliori strategie di de-escalation come parte della soluzione in un memo a livello aziendale, in un'intervista con VentureBeat, Gebru ha definito il suo memo "disumanizzante" e un tentativo di caratterizzarla come una donna nera arrabbiata.

Un portavoce di Google ha detto a VentureBeat in un'e-mail in seguito alla riorganizzazione del mese scorso che i cambiamenti della politica sulla diversità sono stati intrapresi in base alle esigenze dell'organizzazione, non in risposta a un particolare team di Google Research.

Nell'ultimo anno o giù di lì, il team di Ethical AI di Google ha esplorato una serie di argomenti, tra cui la necessità di un cambiamento culturale nell'apprendimento automatico e un quadro di audit interno degli algoritmi, problemi di equità algoritmica specifici per l'India, l'applicazione della teoria critica della razza e della sociologia e i pericoli della scala.

Le ultime settimane e mesi hanno visto un'ondata di rapporti sulle pessime esperienze delle persone di colore e delle donne di Google, oltre a rapporti che sollevano preoccupazioni sull'influenza aziendale sulla ricerca etica sull'intelligenza artificiale. Reuters ha riferito nel dicembre 2020 che ai ricercatori di intelligenza artificiale di Google era stato detto di dare un tono positivo quando si riferivano ad argomenti "sensibili". La scorsa settimana, Reuters ha riferito che Google riformerà il suo approccio alla revisione della ricerca e ulteriori casi di interferenza nella ricerca sull'IA. Secondo un messaggio di posta elettronica ottenuto da Reuters, il coautore di un altro documento sui modelli di linguaggio di grandi dimensioni ha definito "profondamente insidiose" le modifiche apportate dall'ufficio legale di Google.

Negli ultimi giorni, il Washington Post ha descritto in dettaglio come Google tratta i candidati provenienti da college e università storicamente neri in modo separato e ineguale, e NBC News ha riferito che ai dipendenti di Google che hanno subito razzismo o sessismo è stato detto dalle risorse umane di "assumere buone intenzioni" e incoraggiati prendere un congedo per la salute mentale invece di affrontare i problemi sottostanti.

Casi di discriminazione di genere e ambienti di lavoro tossici per donne e persone di colore sono stati segnalati in altre importanti aziende tecnologiche, tra cui Amazon, Dropbox, Facebook, Microsoft e Pinterest. Il mese scorso, VentureBeat ha riferito che dozzine di dipendenti Dropbox attuali ed ex, in particolare donne di colore, hanno riferito di aver assistito o di aver subito discriminazioni di genere nella loro azienda. L'ex dipendente di Pinterest Ifeoma Ozoma, che in precedenza ha parlato con VentureBeat delle protezioni degli informatori, ha contribuito a redigere la proposta di Silenced No More Act in California il mese scorso. Se approvata, tale legge consentirà ai dipendenti di segnalare la discriminazione anche se hanno firmato un accordo di non divulgazione.

La lettera pubblicata oggi dai dipendenti di Google fa seguito ad altra corrispondenza inviata alla leadership dell'azienda di Google da quando Gebru è stato licenziato nel dicembre 2020. Migliaia di dipendenti di Google hanno firmato una lettera di esclusione di Google per protestare contro il modo in cui Gebru è stato trattato e "censura della ricerca senza precedenti". Quella lettera richiedeva anche un'indagine pubblica sulla cessazione di Gebru per il bene degli utenti e dei dipendenti di Google. I membri del Congresso con record di proposte di regolamentazione come l'Atto sulla responsabilità algoritmica, tra cui il rappresentante Yvette Clark (D-NY) e il senatore Cory Booker (D-NJ), hanno anche inviato un'e-mail al CEO di Google Sundar Pichai chiedendo il modo in cui Gebru è stato licenziato, Google integrità della ricerca e misure che l'azienda intraprende per mitigare i pregiudizi nei modelli linguistici di grandi dimensioni.

Circa una settimana dopo il licenziamento di Gebru, i membri del team Ethical AI hanno inviato la propria lettera alla leadership dell'azienda. Secondo una copia ottenuta da VentureBeat, i membri del team di Ethical AI hanno chiesto il reintegro di Gebru e Samy Bengio rimane il diretto responsabile del rapporto per il team di Ethical AI. Affermano inoltre che la riorganizzazione è talvolta utilizzata per "smistare i lavoratori che si sono impegnati in attività di difesa e organizzazione in nuovi ruoli e relazioni manageriali". La lettera descriveva la cessazione di Gebru come un effetto demoralizzante sul team di Ethical AI e delineava una serie di passaggi necessari per ristabilire la fiducia. Quella lettera ha firmato lettere di sostegno per Gebru dal gruppo Black Researchers di Google e dal gruppo di lavoro DEI. Un portavoce di Google ha detto a VentureBeat che un'indagine è stata condotta da un consulente esterno ma ha rifiutato di condividere i dettagli. La lettera Ethical AI richiede inoltre a Google di mantenere e rafforzare il proprio team, garantire l'integrità della ricerca indipendente e chiarire il suo sensibile processo di revisione entro la fine del primo trimestre del 2021. E richiede una dichiarazione pubblica che garantisca l'integrità della ricerca in Google, anche nelle aree legati agli interessi commerciali dell'azienda, come modelli di linguaggio di grandi dimensioni o set di dati come JFT-300, un set di dati con oltre un miliardo di immagini etichettate.

Un portavoce di Google ha affermato che Croak supervisionerà il lavoro di circa 100 ricercatori di intelligenza artificiale in futuro. Una fonte familiare con la questione ha detto a VentureBeat che una riorganizzazione che riunisce i numerosi sforzi di Google per l'equità dell'IA sotto un unico leader ha senso ed è stata discussa prima che Gebru fosse licenziato. La domanda, hanno detto, è se Google finanzierà i test e le analisi di correttezza.

"Sapere di cosa hanno costantemente bisogno queste comunità diventa difficile quando queste popolazioni non faranno necessariamente guadagnare all'azienda un mucchio di soldi", ha detto a VentureBeat una persona che ha familiarità con la questione. "Quindi sì, puoi metterci tutti nella stessa squadra, ma dove sono i soldi? Hai intenzione di dare un sacco di personale e posti di lavoro in modo che le persone possano effettivamente svolgere questo lavoro all'interno dei prodotti? Perché questi team sono già sovraccarichi, come se fossero davvero, molto piccoli rispetto ai prodotti ".

Prima di Gebru e Mitchell, gli organizzatori di sciopero di Google Meredith Whittaker e Claire Stapleton hanno affermato di essere l'obiettivo di ritorsioni prima di lasciare l'azienda, così come i dipendenti che hanno tentato di sindacalizzarsi, molti dei quali si identificano come queer. Poco prima del licenziamento di Gebru, il National Labour Review Board ha presentato una denuncia contro Google che accusa la società di ritorsione e spionaggio illegale dei dipendenti.

L'indice di intelligenza artificiale, una contabilità annuale dei progressi delle prestazioni e dell'impatto dell'IA su startup, imprese e politiche governative, è stato pubblicato la scorsa settimana e ha rilevato che gli Stati Uniti differiscono dagli altri paesi per la quantità di ricerca sostenuta dal settore. Il rapporto sull'indice ha anche chiesto più benchmark di equità, ha scoperto che il Congresso parla di AI più che mai e cita la ricerca che ha rilevato solo il 3% dei dottorati di intelligenza artificiale. i laureati negli Stati Uniti sono neri e il 18% sono donne. Il rapporto rileva che gli incidenti di etica dell'intelligenza artificiale, incluso il licenziamento di Gebru da parte di Google, sono stati tra le notizie di intelligenza artificiale più popolari del 2020.

VentureBeat ha richiesto un'intervista con Marian Croak, vicepresidente di Google, ma un portavoce di Google ha rifiutato per suo conto.

In una questione correlata, l'analisi VentureBeat sulla "lotta per l'anima dell'apprendimento automatico" è stata citata in un documento pubblicato questa settimana al FAccT sul potere, l'esclusione e l'educazione all'etica dell'IA.

VentureBeat

La missione di VentureBeat è quella di essere una piazza cittadina digitale per i responsabili delle decisioni tecniche per acquisire conoscenze sulla tecnologia trasformativa e sulle transazioni.

Il nostro sito fornisce informazioni essenziali sulle tecnologie dei dati e sulle strategie per guidarti mentre guidi le tue organizzazioni. Ti invitiamo a diventare un membro della nostra community, per accedere a:

  • informazioni aggiornate sugli argomenti di tuo interesse
  • le nostre newsletter
  • contenuti gated leader di pensiero e accesso scontato ai nostri eventi pregiati, come Trasforma il 2021: Per saperne di più
  • funzionalità di rete e altro ancora

Diventare socio

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui