Dalle leggi sugli informatori ai sindacati: come il crollo dell'etica dell'IA di Google potrebbe plasmare la politica

0
75

Sono passate due settimane da quando Google ha licenziato Timnit Gebru, una decisione che sembra ancora incomprensibile. Gebru è uno dei ricercatori di etica dell'IA più apprezzati al mondo, un pioniere il cui lavoro ha evidenziato i modi in cui la tecnologia fallisce nelle comunità emarginate quando si tratta di riconoscimento facciale e più recentemente di grandi modelli linguistici.

Naturalmente, questo incidente non è avvenuto nel vuoto. Fa parte di una serie di eventi in corso all'incrocio tra etica dell'IA, potenza e Big Tech. Caso in questione: Gebru è stato licenziato lo stesso giorno in cui il National Labour Review Board (NLRB) ha presentato una denuncia contro Google per spionaggio illegale dei dipendenti e licenziamento per rappresaglia dei dipendenti interessati al sindacato. Il licenziamento di Gebru mette anche in discussione questioni di influenza aziendale nella ricerca, dimostra le carenze dell'autoregolamentazione e mette in evidenza lo scarso trattamento dei neri e delle donne nella tecnologia in un anno in cui Black Lives Matter ha scatenato il più grande movimento di protesta nella storia degli Stati Uniti.

In un'intervista con VentureBeat la scorsa settimana, Gebru ha definito il modo in cui è stata licenziata "irrispettosa" e ha descritto un memo a livello aziendale inviato dal CEO Sundar Pichai come "disumanizzante". Per approfondire i possibili risultati a seguito del crollo dell'etica dell'IA di Google, VentureBeat ha parlato con esperti nei settori dell'IA, della politica tecnologica e della legge sul licenziamento di Gebru e sui problemi che solleva. Hanno anche condiviso pensieri sui cambiamenti politici necessari tra governi, aziende e università. Le persone con cui ho parlato concordano che la decisione di Google di licenziare Gebru è stato un errore con implicazioni politiche di vasta portata.

Rumman Chowdhury è CEO di Parity, un algoritmo di auditing per startup per clienti aziendali. In precedenza ha lavorato come responsabile globale dell'IA responsabile presso Accenture, dove ha fornito consulenza a governi e aziende. Nella nostra conversazione, Chowdhury ha espresso un sentimento fatto eco da molte delle persone intervistate per questo articolo.

"Penso solo al danno collaterale letteralmente a tutti: Google, il settore dell'IA, dell'intelligenza artificiale responsabile … Non credo che capiscano davvero cosa hanno fatto. Altrimenti, non l'avrebbero fatto ", ha detto Chowdhury a VentureBeat.

Audit indipendenti di algoritmi esterni

Christina Colclough è direttrice del laboratorio Why Not e membro del comitato direttivo Global Partnership on AI (GPAI). GPAI è stato lanciato a giugno con 15 membri, tra cui l'UE e gli Stati Uniti, e il Brasile e altri tre paesi si sono uniti all'inizio di questo mese.

Dopo aver chiesto "Chi diavolo sta consigliando Google?" Colclough ha suggerito audit esterni indipendenti per la valutazione degli algoritmi. "Si può dire che per qualsiasi nuova tecnologia in fase di sviluppo abbiamo bisogno di un impatto della valutazione del rischio, di una valutazione dei diritti umani, dobbiamo essere in grado di entrare, verificarlo e verificare la conformità legale", ha continuato.

L'idea di audit indipendenti è in linea con le relazioni sull'impatto ambientale che i progetti di costruzione devono presentare oggi. Un documento pubblicato all'inizio di quest'anno su come le aziende possono trasformare i principi etici in pratica ha suggerito la creazione di un mercato di terze parti per gli algoritmi di controllo e i premi di bias simili ai bug bounties pagati dalle società di sicurezza informatica. Quel documento includeva 60 autori di dozzine di organizzazioni influenti del mondo accademico e industriale.

Se gli elettori della California avessero approvato la Prop 25 il mese scorso, il disegno di legge avrebbe richiesto audit esterni indipendenti degli algoritmi di valutazione del rischio. In un altro sviluppo della responsabilità pubblica per l'IA, le città di Amsterdam e Helsinki hanno adottato registri di algoritmi.

Autoregolamentazione dei rottami

Chowdhury ha detto che ora sarà difficile per le persone credere che qualsiasi team di etica all'interno di un'azienda Big Tech sia più di una semplice operazione di lavaggio dell'etica. Ha anche suggerito che il licenziamento di Gebru introduce un nuovo livello di paura quando si tratta di entità aziendali: cosa stai costruendo? Quali domande non stai facendo?

Quello che è successo a Gebru, ha detto Chowdhury, dovrebbe anche portare a livelli più alti di controllo o preoccupazione per l'interferenza dell'industria nella ricerca accademica. E ha avvertito che la decisione di Google di licenziare Gebru ha causato un colpo di credibilità alla più ampia comunità di etica dell'IA.

Se sei uno stretto seguace di questo spazio, potresti essere già giunto alla conclusione che l'autoregolamentazione nelle aziende Big Tech non è possibile. Potresti essere arrivato a quel punto negli ultimi anni, o forse anche un decennio fa, quando le autorità di regolamentazione dell'Unione europea hanno lanciato per la prima volta azioni antitrust contro Google.

Colclough concorda sul fatto che la situazione attuale è insostenibile e afferma che le aziende Big Tech stanno utilizzando la partecipazione alla ricerca sull'etica dell'IA come un modo per evitare una regolamentazione effettiva. "Molti governi hanno lasciato che questa autoregolamentazione avesse luogo perché li ha tolti dai guai, perché sono oggetto di grandi pressioni da parte di Big Tech e non vogliono assumersi la responsabilità di mettere in atto nuovi tipi di regolamentazione, "Ha detto Colclough.

Non ha dubbi che licenziare Gebru sia stato un atto di censura. "Che cos'è che ha segnalato e che Google non voleva sentire e quindi l'ha messa a tacere?" Chiese Colclough. "Non so se metteranno mai a tacere lei oi suoi colleghi, ma hanno sicuramente dimostrato al mondo – e penso che sia un punto che deve essere reso molto più forte – che non ci si può fidare dell'autoregolamentazione . "

I legislatori e le autorità di regolamentazione statunitensi sono stati lenti a sfidare Big Tech, ma ora ci sono diverse azioni antitrust in corso negli Stati Uniti e in altri paesi. Prima di una causa antitrust su Facebook presentata la scorsa settimana, Google ha affrontato una causa dal Dipartimento di Giustizia e dagli avvocati generali il mese scorso, il primo caso degli Stati Uniti contro una grande azienda tecnologica dagli anni '90. Accanto alle pratiche commerciali anticoncorrenziali, l'accusa di 60 pagine afferma che Google utilizza l'intelligenza artificiale e i dati degli utenti per mantenere il proprio predominio. Sono previsti costi aggiuntivi nei prossimi giorni. Questo autunno, un'indagine del Congresso sulle società Big Tech ha concluso che la riforma della legge antitrust è necessaria per proteggere i mercati competitivi e la democrazia.

Azione collettiva o sindacalizzazione dei lavoratori tecnologici

J. Khadijah Abdurahman gestisce il progetto di tecnologia pubblica We Be Imaging presso la Columbia University e recentemente ha contribuito a organizzare il workshop sull'IA della resistenza a NeurIPS 2020. Non molto tempo dopo che Google ha licenziato Gebru, Abdurahman ha scritto un pezzo per affermare il collasso morale del campo dell'etica dell'IA. Ha definito immobilizzato il lancio di Gebru come dimostrazione pubblica di resistenza istituzionale. Nel pezzo, parla di idee come la necessità di una sala di guerra per la giustizia sociale. Sottolinea l'importanza di spostare radicalmente la conversazione sull'etica dell'IA dall'idea del ricercatore solitario contro Golia al fine di facilitare un movimento più ampio. Crede inoltre che sia necessaria un'azione collettiva per affrontare la violenza riscontrata nella catena di fornitura tecnologica, che va dai difetti alla nascita sperimentati dai minatori di cobalto in Africa centrale a pregiudizi algoritmici e disinformazione nei social media.

Ciò che serve, ha detto, è un movimento che attraversi la classe e definisca i lavoratori tecnologici in modo più ampio, inclusi ricercatori e ingegneri, ma anche conducenti di Uber, magazzinieri di Amazon e moderatori di contenuti. In un'intervista con VentureBeat, ha detto: "Non dovrebbe esserci un martire solitario che va in punta di piedi con [Big Tech]. Serve una coalizione più ampia di persone che finanziano e collaborano per svolgere il lavoro ".

L'idea di un'azione collettiva attraverso l'unione sindacale è emersa venerdì a NeurIPS in una tavola rotonda che includeva Gebru. Al workshop Resistance AI per professionisti e ricercatori interessati all'IA che dà potere alle persone emarginate, Gebru ha parlato del motivo per cui sostiene ancora l'idea di persone che lavorano come ricercatori nelle società. Ha anche paragonato il modo in cui è stata trattata a quello che è successo agli organizzatori di sciopero di Google del 2018 Meredith Whittaker e Claire Stapleton. Durante il panel, a Gebru è stato chiesto se ritiene che la sindacalizzazione proteggerebbe i ricercatori dell'IA etica.

"Ci sono due cose che dobbiamo fare: dobbiamo guardare allo slancio che sta accadendo e capire cosa possiamo ottenere sulla base di questo slancio, che tipo di cambiamento possiamo ottenere", ha detto. "Ma poi dobbiamo anche prendere il tempo per pensare a quali tipi di cose dobbiamo veramente cambiare in modo da non avere fretta di avere una sorta di cambiamenti politici. Ma la mia risposta breve è sì, penso che debba avvenire una sorta di unione, e credo che ci sia molta speranza ".

In un'intervista di questo autunno, Whittaker ha definito l'azione collettiva dei dipendenti e il whistleblowing lasciando i dipendenti di Facebook parte di un kit di strumenti per i lavoratori tecnologici.

Protezione degli informatori per i ricercatori di IA

Nei giorni prima che Google la licenziasse, i tweet di Gebru indicavano che non andava tutto bene. In un tweet, ha chiesto se fosse in cantiere una regolamentazione per proteggere i ricercatori di etica dell'IA, simile a quella offerta agli informatori.

C'è qualcuno che sta lavorando sulla regolamentazione che protegge i ricercatori di Ethical AI, simile alla protezione degli informatori? Perché con la quantità di censura e intimidazione che va avanti nei confronti di persone in gruppi specifici, come ci si può fidare di una vera ricerca in questo settore?

– Timnit Gebru (@timnitGebru) 1 dicembre 2020

L'ex dipendente Pinterest Ifeoma Ozoma ha recentemente completato un rapporto per Omidyar Network sulle esigenze degli informatori tecnologici. Il rapporto uscirà il mese prossimo, ha detto a VentureBeat un portavoce della rete Omidyar. Come l'esperienza di Gebru in Google, Ozoma descrive incidenti su Pinterest di mancanza di rispetto, gaslighting e razzismo.

Come parte di una proposta di progetto derivante da quel lavoro, il prossimo anno Ozoma ha detto che verrà rilasciata una guida per informatori in ambito tecnologico e verrà lanciato un fondo monetario dedicato al pagamento dei bisogni di salute fisica e mentale dei lavoratori che vengono espulsi dopo la denuncia. Non è la parte più sexy della storia del whistleblowing, ha detto Ozoma a VentureBeat, ma quando un whistleblower viene espulso, loro – e forse la loro famiglia – perdono la copertura sanitaria.

"Non è solo un deterrente per le persone che parlano, ma è un'enorme conseguenza finanziaria del parlare e condividere informazioni che credo siano di interesse pubblico", ha detto.

Sonia Katyal, codirettore dell'UC Berkeley Center for Law and Technology, sostiene il rafforzamento delle leggi esistenti sugli informatori per i ricercatori di etica. "Direi con forza che la legge esistente è del tutto insufficiente", ha detto a VentureBeat. “Quello di cui dovremmo preoccuparci è un mondo in cui piace a tutti i ricercatori di maggior talento [Gebru] farsi assumere in questi luoghi e poi effettivamente messo la museruola dal parlare. E quando ciò accade, la protezione degli informatori diventa essenziale ".

In un documento pubblicato sulla UCLA Law Review lo scorso anno, Katyal ha scritto sulle protezioni degli informatori come parte di un toolkit necessario per affrontare i problemi all'incrocio tra AI e diritti civili. Sostiene che le protezioni degli informatori possono essere particolarmente importanti in situazioni in cui le aziende fanno affidamento sull'autoregolamentazione e per combattere i pregiudizi algoritmici.

Conosciamo alcuni usi dannosi dei big data e dell'intelligenza artificiale – come lo scandalo Cambridge Analytica su Facebook – a causa di informatori come Christopher Wylie. A quel tempo, Katyal chiamava account come Wylie "la punta dell'iceberg per quanto riguarda il potenziale impatto del bias algoritmico sulla società odierna".

"Dati i problemi di opacità, imperscrutabilità e il ruolo potenziale sia del segreto commerciale che della legge sul diritto d'autore nel fungere da ostacoli alla divulgazione, il whistleblowing potrebbe essere una strada appropriata da considerare nell'IA", si legge nel documento della UCLA Law Review.

Uno degli ostacoli principali a una maggiore responsabilità e trasparenza nell'era dei big data sono le affermazioni delle aziende secondo cui gli algoritmi sono proprietari. Katyal è preoccupata per uno scontro tra i diritti di un'azienda di non divulgare informazioni su un algoritmo e i diritti civili di un individuo a vivere in un mondo privo di discriminazioni. Questo diventerà sempre più un problema, ha avvertito, poiché le agenzie governative prendono dati o contratti di servizio di intelligenza artificiale da società private.

Altri ricercatori hanno anche scoperto che le società private hanno generalmente meno probabilità di condividere il codice con i documenti alle conferenze di ricerca, in tribunale o con le autorità di regolamentazione.

Esistono numerose leggi sugli informatori esistenti negli Stati Uniti, incluso il Whistleblower Protection Act, che offre ai lavoratori una certa protezione contro le ritorsioni. C'è anche il Defend Trade Secrets Act (DTSA). Approvata nel 2016, la legge include una disposizione che fornisce protezione contro le richieste di appropriazione indebita di segreti commerciali avanzate da un datore di lavoro. Ma Katyal ha definito questo argomento limitato e ha affermato che la fornitura di DTSA è un piccolo strumento in un grande mondo di intelligenza artificiale non regolamentato.

"La grande preoccupazione che ogni azienda nutre nei confronti di qualsiasi tipo di dipendente che desideri farsi avanti o condividere le proprie informazioni o preoccupazioni con il pubblico – sanno che utilizzare la spiegazione che si tratta di informazioni riservate e proprietarie è un modo molto potente per zittire il dipendente, "Ha detto a VentureBeat.

Molti eventi nella memoria recente dimostrano perché una qualche forma di protezione degli informatori potrebbe essere una buona idea. Uno studio dell'autunno 2019 su Nature ha scoperto che un algoritmo utilizzato negli ospedali potrebbe essere stato coinvolto nella discriminazione contro milioni di persone di colore negli Stati Uniti. Una storia più recente rivela come un algoritmo abbia impedito ai neri di ricevere trapianti di reni.

Per una serie di motivi, le fonti citate per questo articolo hanno cautamente sostenuto ulteriori protezioni per gli informatori. Colclough supporta una qualche forma di protezione speciale come le leggi sugli informatori, ma ritiene che dovrebbe far parte di un piano più ampio. Tali leggi possono essere particolarmente utili quando si tratta del potenziale dispiegamento dell'IA che potrebbe danneggiare la vita in aree in cui sono già stati riscontrati pregiudizi, come l'assunzione, l'assistenza sanitaria e il prestito finanziario.

Un'altra opzione che Colclough solleva: dare ai cittadini il diritto di presentare reclami alle autorità di regolamentazione del governo. Come risultato del GDPR, i cittadini dell'UE possono segnalare a un'autorità nazionale per i dati se ritengono che un'azienda non sia conforme alla legge e l'autorità nazionale per i dati è quindi obbligata a indagare. La libertà da pregiudizi e un percorso verso un risarcimento fanno parte di una carta dei diritti algoritmica proposta lo scorso anno.

Chowdhury ha detto di supportare protezioni aggiuntive, ma ha avvertito che il whistleblowing dovrebbe essere l'ultima risorsa. Ha espresso riserve sulla base del fatto che gli informatori che diventano pubblici possono essere dipinti dai conservatori o dai suprematisti bianchi come "mancini SJW che cercano di ottenere una schiacciata".

Prima di prendere in considerazione il whistleblowing, ritiene che le aziende dovrebbero stabilire strade per i dipendenti che desiderano esprimere un dissenso costruttivo. Ai googler viene dato un modo interno per condividere reclami o dubbi su un modello, hanno detto i dipendenti a VentureBeat e ad altri organi di stampa durante un evento stampa questo autunno. Un portavoce di Google ha successivamente rifiutato di condividere quali particolari casi d'uso o modelli avevano attirato la maggior parte delle critiche interne.

Ma Abdurahman ha messo in dubbio quali lavoratori una legge del genere proteggerebbe e ha detto: "Penso che la linea di indagine sia più difensiva di quanto richiesto in questo momento".

Elimina i finanziamenti aziendali per la ricerca sull'etica dell'IA

Nei giorni successivi al licenziamento di Gebru, più di 2.000 googler hanno firmato una lettera aperta in cui si afferma "una censura della ricerca senza precedenti". In seguito, alcuni ricercatori di intelligenza artificiale hanno affermato di rifiutarsi di rivedere i documenti di Google sull'intelligenza artificiale fino a quando la società non risolverà le lamentele sollevate dall'incidente. Più in generale, ciò che è successo a Google mette in discussione l'influenza effettiva e percepita dell'industria sulla ricerca accademica.

Al workshop NeurIPS Resistance AI, Rediet Abebe, che inizia come professore associato presso l'Università di Berkeley il prossimo anno, ha spiegato perché non accetterà finanziamenti per la ricerca da Google. Ha anche detto che pensa che i docenti universitari dovrebbero parlare del finanziamento della ricerca Big Tech.

"Forse una sola persona può fare un buon lavoro separando le fonti di finanziamento da ciò che sta facendo, ma devi ammettere che nel complesso ci sarà un'influenza. Se un gruppo di noi sta prendendo denaro dalla stessa fonte, ci sarà uno spostamento comune verso il lavoro che serve quell'istituzione di finanziamento ", ha detto.

Jasmine McNealy è un avvocato, professore associato di giornalismo presso l'Università della Florida e docente associato al Berkman Klein Center for Internet and Society presso l'Università di Harvard.

McNealy ha recentemente accettato finanziamenti da Google per la ricerca sull'etica dell'IA. Ha espresso scetticismo sull'idea che l'attuale contesto economico consentirà alle università pubbliche di rifiutare i finanziamenti dalla tecnologia o praticamente da qualsiasi altra fonte.

"A meno che i legislatori e i governatori statali non dicano 'Non ci piacciono necessariamente i soldi provenienti da questo tipo di organizzazioni o persone', non credo che le università, in particolare le università pubbliche, smetteranno di prendere soldi dalle organizzazioni", ha detto.

Potrebbero essere in arrivo ulteriori finanziamenti pubblici per la ricerca. La piattaforma di amministrazione Biden si è impegnata in un investimento di 300 miliardi di dollari in finanziamenti per la ricerca e lo sviluppo in una serie di aree, compresa l'intelligenza artificiale.

Ma le accuse di censura della ricerca su Google arrivano in un momento in cui i ricercatori di intelligenza artificiale mettono in discussione l'influenza delle aziende e fanno confronti con Big Tobacco che finanzia la ricerca sulla salute nei decenni passati. Altri ricercatori di intelligenza artificiale indicano un divario di calcolo e una crescente disuguaglianza tra Big Tech, università d'élite e tutti gli altri nell'era del deep learning.

Google impiega più talenti accademici di intelligenza artificiale di ruolo di qualsiasi altra azienda ed è il produttore più prolifico di ricerca sull'intelligenza artificiale.

Big Tech fiscale

Abdurahman, Colclough e McNealy sostengono fortemente l'aumento delle tasse per le aziende tecnologiche. Tali tasse potrebbero finanziare la ricerca accademica e le agenzie di controllo con supervisione normativa come la Federal Trade Commission (FTC), oltre a supportare le infrastrutture pubbliche e le scuole su cui le aziende fanno affidamento.

"Uno dei motivi per cui è stato accettato che le grandi aziende pagassero tutti questi soldi nella ricerca era che altrimenti non ci sarebbe stata ricerca e non ci sarebbe stata ricerca perché non c'erano soldi. Ora penso che dovremmo tornare alle origini e dire "Qui paghi in un fondo generale e ci assicureremo che le università ottengano quei soldi, ma senza che tu abbia influenza sulle conclusioni tratte" ", ha detto Colclough, aggiungendo che la tassazione delle società consente una maggiore applicazione delle leggi esistenti contro la discriminazione.

L'applicazione della legge esistente come il Civil Rights Act, in particolare in materia di finanziamenti pubblici, è emersa anche in una lettera aperta firmata da un gruppo di professionisti neri in AI e informatica a giugno.

La tassazione che impone l'applicazione dei fondi potrebbe anche attirare una certa attenzione normativa sulle startup emergenti, che secondo McNealy a volte possono fare cose con "impatti o implicazioni altrettanto negativi" delle loro controparti aziendali.

C'è un certo sostegno pubblico all'idea di rivedere gli obblighi fiscali delle grandi società tecnologiche. Biden ha promesso nella sua campagna di far pagare ad Amazon più tasse sul reddito, e l'Unione Europea sta prendendo in considerazione una legislazione che imporrebbe un'imposta sulle vendite del 10% alle società tecnologiche "gatekeeper".

La tassazione può anche finanziare la tecnologia che non si basa sulla redditività come misura del valore. Abdurahman afferma che il mondo ha bisogno di strumenti pubblici e che le persone hanno bisogno di ampliare la propria immaginazione al di là del fatto che poche aziende forniscano tutta la tecnologia che utilizziamo.

Sebbene l'IA nel settore pubblico sia spesso considerata una misura di austerità, Abdurahman definisce la tecnologia di interesse pubblico come non commerciale, progettata per il bene sociale e realizzata con una coalizione rappresentativa della società. Crede che non dovrebbero includere solo i ricercatori, ma anche le persone più colpite dalla tecnologia.

"La tecnologia di interesse pubblico apre un intero nuovo mondo di possibilità, e questa è la linea di indagine che dobbiamo perseguire piuttosto che capire 'Come possiamo risolvere questo calcolo davvero incasinato intorno ai bordi?'", Ha detto Abdurahman. “Penso che se ci affidiamo alla tecnologia privata per la polizia stessa, siamo condannati. E penso che i legislatori e gli sviluppatori politici abbiano la responsabilità di aprire e finanziare uno spazio per la tecnologia di interesse pubblico ".

Alcuni di questi lavori potrebbero non essere redditizi, ha affermato Chowdhury, ma la redditività non può essere l'unico valore in base al quale viene considerata l'IA.

Richiedi ai ricercatori di intelligenza artificiale di rivelare legami finanziari

Abdurahman suggerisce che la divulgazione dei legami finanziari diventi uno standard per i ricercatori di intelligenza artificiale. "In qualsiasi altro campo, come nel settore farmaceutico, dovresti rivelare che la tua ricerca è finanziata da quelle società perché questo ovviamente influisce su ciò che sei disposto a dire e su ciò che puoi dire e sul tipo di informazioni a tua disposizione, " lei disse.

Per la prima volta, quest'anno gli organizzatori della conferenza di ricerca NeurIPS AI hanno richiesto agli autori di dichiarare potenziali conflitti di interesse e l'impatto del loro lavoro sulla società.

Separare l'etica dell'IA dall'informatica

Un recente documento di ricerca che mette a confronto Big Tech e Big Tobacco suggerisce che gli accademici considerano la possibilità di fare ricerca sull'etica in un campo separato, simile al modo in cui la bioetica è separata dalla medicina e dalla biologia. Ma Abdurahman ha espresso scetticismo su questo approccio poiché l'industria e il mondo accademico sono già isolati.

"Abbiamo bisogno di una pratica etica più critica, non solo di questa divisione tra coloro che creano e coloro che dicono che ciò che hai creato è cattivo", ha detto.

Etici e ricercatori in alcuni campi del machine learning hanno incoraggiato la creazione di team interdisciplinari, come AI e assistenti sociali, AI e cambiamento climatico, AI e oceanografia, tra gli altri campi. In effetti, Gebru faceva parte di uno sforzo per portare i primi sociologi al team di ricerca di Google, introducendo strutture come la teoria critica della razza quando si considera l'equità.

Pensieri finali

Quello che i googler hanno chiamato un attacco di ritorsione contro Gebru segue una serie di importanti punti critici sull'etica dell'IA in Google negli ultimi anni. Quando nel 2018 si è sparsa la voce che Google stava collaborando con il Pentagono al Progetto Maven per sviluppare la visione artificiale per riprese di droni militari, i dipendenti hanno espresso il loro dissenso in una lettera aperta firmata da migliaia di persone. Nello stesso anno, in una protesta contro il progetto Maven, le molestie sessuali e altri problemi, decine di migliaia di dipendenti di Google hanno partecipato a uno sciopero nelle sedi aziendali di tutto il mondo. Poi c'era il travagliato comitato etico dell'IA di Google, che è sopravvissuto solo pochi giorni.

Due settimane dopo il licenziamento di Gebru, la società sembra ancora filtrare. Lunedì, Business Insider ha ottenuto un memo trapelato che rivelava che il capo di Google AI Jeff Dean aveva annullato una chiamata di fine anno a tutte le mani. Da quando VentureBeat ha intervistato Gebru la scorsa settimana, ha parlato a lungo con BBC, Slate e MIT Tech Review.

I membri del Congresso con un record di fatture di sponsorizzazione relative a pregiudizi algoritmici hanno inviato oggi una lettera al CEO di Google Sundar Pichai chiedendo come Google mitiga i pregiudizi nei modelli linguistici di grandi dimensioni e come Pichai intende indagare ulteriormente su ciò che è successo con Gebru e promuovere la diversità. I firmatari includono Rep. Yvette Clarke (D-NY) e Sen. Cory Booker (D-NJ). I due sono cosponsor dell'Algorithmic Accountability Act, un disegno di legge del 2019 che avrebbe richiesto alle aziende di valutare gli algoritmi per il bias. Booker ha anche co-sponsorizzato una moratoria federale sul riconoscimento facciale all'inizio di quest'anno. La senatrice Elizabeth Warren (D-MA), che ha messo in dubbio i pregiudizi nei prestiti finanziari, e il senatore Ron Wyden (D-OR) che ha messo in dubbio l'uso della tecnologia come il riconoscimento facciale durante le proteste, hanno firmato la lettera.

Sempre oggi: i membri del team di Ethical AI di Google hanno inviato ulteriori richieste a Pichai, chiedendo, tra le altre cose, modifiche alle politiche.

All'inizio di quest'anno, ho scritto di una lotta per l'anima dell'apprendimento automatico. Ho parlato di società di intelligenza artificiale associate a sorveglianza, oppressione e supremazia bianca e altre che lavorano per affrontare i danni causati dall'intelligenza artificiale e costruire un mondo più equo. Da allora, abbiamo visto più istanze documentate di, come ha detto oggi AI Now Institute, motivi per farci una pausa.

Il trattamento di Gebru evidenzia come la mancanza di investimenti nella diversità possa creare un ambiente di lavoro tossico. Porta anche a domande come il modo in cui i dipendenti dovrebbero avvisare il pubblico dell'IA che danneggia le vite umane se la leadership dell'azienda si rifiuta di affrontare tali preoccupazioni. E mette in risalto l'incapacità dell'azienda di impiegare una forza lavoro di ingegneria diversificata nonostante il fatto che tale diversità sia ampiamente considerata essenziale per ridurre al minimo i bias algoritmici.

Le persone con cui ho parlato per questo articolo sembrano concordare sul fatto che abbiamo bisogno di regolamentare la tecnologia che modella le vite umane. Chiedono inoltre meccanismi di responsabilità e applicazione più forti e modifiche alla politica istituzionale e governativa. Le misure per affrontare la sezione trasversale delle questioni sollevate dal trattamento di Gebru dovrebbero coprire un ampio spettro di preoccupazioni politiche, che vanno dai passaggi per garantire l'indipendenza della ricerca accademica alla sindacalizzazione o a coalizioni più ampie tra i lavoratori della tecnologia.

Aggiornamento: 16 dicembre alle 21:54 Pacific per includere le richieste dei dipendenti di Google e alle 18:58 Pacific per collegare una lettera inviata al CEO di Google Sundar Pichai da membri del Congresso e informazioni di base.