Google si offre di aiutare gli altri con la difficile etica dell'IA

0
4

Yuchiro Chino | Getty Images

Le aziende pagano un sacco di soldi a fornitori di cloud computing come Amazon, Microsoft e Google per evitare di gestire la propria infrastruttura digitale. La divisione cloud di Google inviterà presto i clienti a esternalizzare qualcosa di meno tangibile di CPU e unità disco: i diritti e gli errori dell'uso dell'intelligenza artificiale.

La società prevede di lanciare nuovi servizi di etica AI entro la fine dell'anno. Inizialmente, Google offrirà ad altri consigli su attività come individuare i pregiudizi razziali nei sistemi di visione artificiale o sviluppare linee guida etiche che regolino i progetti di intelligenza artificiale. A lungo termine, l'azienda può offrire l'audit dei sistemi di intelligenza artificiale dei clienti per l'integrità etica e l'addebito per la consulenza etica.

Le nuove offerte di Google metteranno alla prova se un'industria redditizia ma sempre più diffidente può aumentare la propria attività offrendo suggerimenti etici. L'azienda è un terzo distante nel mercato del cloud computing dietro Amazon e Microsoft e posiziona la sua esperienza nell'intelligenza artificiale come un vantaggio competitivo. In caso di successo, la nuova iniziativa potrebbe generare una nuova parola d'ordine: EaaS, per l'etica come servizio, modellato sulle monete del settore cloud come SaaS, per il software come servizio.

Google ha imparato alcune lezioni di etica dell'intelligenza artificiale nel modo più duro, attraverso le proprie controversie. Nel 2015, Google si è scusato e ha impedito alla sua app Foto di rilevare i gorilla dopo che un utente ha segnalato che il servizio aveva applicato quell'etichetta alle foto di lui con un amico nero. Nel 2018, migliaia di dipendenti di Google hanno protestato contro un contratto del Pentagono chiamato Maven che utilizzava la tecnologia dell'azienda per analizzare le immagini di sorveglianza dei droni.

Poco dopo, la società ha rilasciato una serie di principi etici per l'uso della sua tecnologia AI e ha affermato che non avrebbe più gareggiato per progetti simili, ma non ha escluso tutto il lavoro di difesa. Nello stesso anno, Google ha riconosciuto di aver testato una versione del suo motore di ricerca progettata per conformarsi alla censura autoritaria della Cina e ha affermato che non avrebbe offerto la tecnologia di riconoscimento facciale, come hanno fatto per anni i rivali Microsoft e Amazon, a causa dei rischi di abuso.

Annuncio

Le lotte di Google fanno parte di una più ampia stima tra i tecnologi che l'intelligenza artificiale può danneggiare e aiutare il mondo. I sistemi di riconoscimento facciale, ad esempio, sono spesso meno precisi per i neri e i software di testo possono rafforzare gli stereotipi. Allo stesso tempo, i regolatori, i legislatori e i cittadini sono diventati più sospettosi dell'influenza della tecnologia sulla società.

Un esame più approfondito

In risposta, alcune aziende hanno investito in processi di ricerca e revisione progettati per impedire che la tecnologia vada fuori dai binari. Microsoft e Google affermano che ora esaminano sia i nuovi prodotti di intelligenza artificiale che i potenziali accordi per problemi etici e, di conseguenza, hanno rifiutato l'attività.

Tracy Frey, che lavora alla strategia di intelligenza artificiale presso la divisione cloud di Google, afferma che le stesse tendenze hanno spinto i clienti che si affidano a Google per una potente intelligenza artificiale a chiedere anche un aiuto etico. "Il mondo della tecnologia sta passando a dire non 'lo costruirò solo perché posso', ma 'dovrei?'", dice.

Google ha già aiutato alcuni clienti, come il gigante bancario globale HSBC, a pensarci. Ora, mira prima della fine dell'anno a lanciare servizi etici ufficiali di intelligenza artificiale. Frey afferma che il primo probabilmente includerà corsi di formazione su argomenti come come individuare i problemi etici nei sistemi di intelligenza artificiale, simile a quello offerto ai dipendenti di Google, e come sviluppare e implementare linee guida sull'etica dell'IA. Successivamente, Google potrebbe offrire servizi di consulenza per rivedere o verificare i progetti di intelligenza artificiale dei clienti, ad esempio per verificare se un algoritmo di prestito è distorto rispetto a persone di determinati gruppi demografici. Google non ha ancora deciso se addebiterà alcuni di questi servizi.

Google, Facebook e Microsoft hanno tutti strumenti tecnici rilasciati di recente, spesso gratuiti, che gli sviluppatori possono utilizzare per verificare l'affidabilità e l'equità dei propri sistemi di intelligenza artificiale. IBM ha lanciato uno strumento l'anno scorso con un pulsante "Verifica correttezza" che esamina se l'output di un sistema mostra una correlazione potenzialmente problematica con attributi come l'etnia o il codice postale.

Annuncio

Fare un ulteriore passo avanti per aiutare i clienti a definire i propri limiti etici per l'IA potrebbe sollevare questioni etiche a sé stanti. "È molto importante per noi non suonare come la polizia morale", dice Frey. Il suo team sta lavorando su come offrire ai clienti consigli etici senza dettare o assumersi la responsabilità delle loro scelte.

“Legalmente obbligato a fare soldi”

Un'altra sfida è che un'azienda che cerca di fare soldi con l'intelligenza artificiale potrebbe non essere il miglior mentore morale per frenare la tecnologia, afferma Brian Green, direttore dell'etica tecnologica presso il Markkula Center for Applied Ethics presso la Santa Clara University. "Sono legalmente obbligati a fare soldi e mentre l'etica può essere compatibile con questo, potrebbe anche far sì che alcune decisioni non vadano nella direzione più etica", afferma.

Frey afferma che Google e i suoi clienti sono tutti incentivati ​​a implementare l'intelligenza artificiale in modo etico perché per essere ampiamente accettata la tecnologia deve funzionare bene. "Il successo dell'intelligenza artificiale dipende da un'attenta e ponderata attività", afferma. Indica come IBM ha recentemente ritirato il suo servizio di riconoscimento facciale tra le proteste nazionali per la brutalità della polizia contro i neri; apparentemente è stato suggerito in parte da lavori come il progetto Gender Shades, che ha mostrato che gli algoritmi di analisi facciale erano meno accurati sulle tonalità della pelle più scure. Microsoft e Amazon hanno rapidamente affermato che avrebbero sospeso le proprie vendite alle forze dell'ordine fino a quando non fossero state introdotte ulteriori normative.

Alla fine, l'iscrizione dei clienti ai servizi di etica dell'intelligenza artificiale può dipendere dal convincere le aziende che si sono rivolte a Google a muoversi più velocemente nel futuro che in realtà dovrebbero muoversi più lentamente.

Alla fine dell'anno scorso, Google ha lanciato un servizio di riconoscimento facciale limitato alle celebrità che si rivolge principalmente alle aziende che hanno bisogno di cercare o indicizzare grandi raccolte di video di intrattenimento. Le celebrità possono rinunciare e Google controlla quali clienti possono utilizzare la tecnologia.

La revisione etica e il processo di progettazione sono durati 18 mesi, comprese le consultazioni con i leader dei diritti civili e la risoluzione di un problema con i dati di formazione che ha causato una riduzione dell'accuratezza per alcuni attori maschi neri. Quando Google ha lanciato il servizio, il servizio di riconoscimento delle celebrità di Amazon, che consente anche alle celebrità di rinunciare, era aperto a tutti da più di due anni.

Questa storia è apparsa originariamente su wired.com.

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui