Google rilascia strumenti differenziali per la privacy per commemorare la Giornata della privacy dei dati

763

Hai perso una sessione del Summit sul futuro del lavoro? Vai alla nostra libreria on-demand del Summit sul futuro del lavoro per lo streaming.

Lascia il Newsletter OSS Enterprise guida il tuo viaggio nell’open source! Iscriviti qui.

L’intelligenza artificiale promette di trasformare, anzi ha già trasformato, interi settori, dalla pianificazione civica e dall’assistenza sanitaria alla sicurezza informatica. Ma la privacy rimane una sfida irrisolta. Sottolineando il problema, due anni fa, Microsoft ha rimosso silenziosamente un set di dati con oltre 10 milioni di immagini di persone dopo che è emerso che alcuni soggetti non erano consapevoli di essere stati inclusi in quei dati.

Una soluzione parziale al problema della privacy nell’IA proposta è la privacy differenziale. La privacy differenziale implica l’iniezione di una piccola quantità di rumore nei dati prima di inserirli in un sistema di intelligenza artificiale, rendendo così difficile l’estrazione dei dati originali dal sistema. Qualcuno che vede la previsione di un sistema di intelligenza artificiale differenzialmente privato non può dire se le informazioni di una determinata persona sono state utilizzate per sviluppare il sistema.

Nel tentativo di rendere gli strumenti di privacy differenziale più accessibili a più persone, Google ha annunciato oggi l’espansione della sua libreria di privacy differenziale esistente al linguaggio di programmazione Python in collaborazione con OpenMined, una comunità open source focalizzata sulle tecnologie di tutela della privacy. La società ha anche rilasciato un nuovo strumento di privacy differenziale che, secondo lei, consente ai professionisti di visualizzare e ottimizzare i parametri utilizzati per produrre informazioni private in modo differenziato, nonché tecniche di condivisione della carta per ridimensionare la privacy differenziale a grandi set di dati.

Espansione della privacy differenziale

L’annuncio di Google segna entrambi un anno dall’inizio della collaborazione con OpenMined e Data Privacy Day, che commemora la firma nel gennaio 1981 della Convenzione 108, il primo trattato internazionale legalmente vincolante sulla protezione dei dati. Google ha reso open source la sua libreria di privacy differenziale, che secondo la società è utilizzata in prodotti principali come Google Maps, a settembre 2019, prima dell’arrivo del modulo sperimentale di Google che testa la privacy dei modelli di intelligenza artificiale.

“Nel 2019 abbiamo lanciato la nostra versione open source della nostra libreria di privacy differenziale fondamentale in C++, Java e Go. Il nostro obiettivo era essere trasparenti e consentire ai ricercatori di ispezionare il nostro codice. Abbiamo ricevuto un enorme interesse da parte di sviluppatori che volevano utilizzare la libreria nelle proprie applicazioni, comprese startup come Arkhn, che ha consentito a diversi ospedali di apprendere dai dati medici in modo da preservare la privacy, e sviluppatori in Australia che hanno accelerato la scoperta scientifica attraverso dati dimostrabilmente privati”, ha scritto Miguel Guevara, responsabile del prodotto per la privacy differenziale di Google in un post sul blog. “Da allora, abbiamo lavorato su vari progetti e nuovi modi per rendere la privacy differenziale più accessibile e utilizzabile”.

Google afferma che il ritrovato supporto per Python da parte della sua libreria di privacy deferente ha già consentito alle organizzazioni di iniziare a sperimentare nuovi casi d’uso, come mostrare le pagine Web più visitate di un sito per paese in “modo aggregato e anonimo”. Come in precedenza, la libreria, che integra TensorFlow Privacy, il set di strumenti per la privacy differenziale di Google per TensorFlow, può essere utilizzata con motori di elaborazione dati come i framework Spark e Beam, offrendo potenzialmente maggiore flessibilità nell’implementazione.

Supporto crescente

Google è tra i numerosi giganti della tecnologia che negli ultimi anni hanno rilasciato strumenti di privacy differenziati per l’IA. A maggio 2020, Microsoft ha presentato SmartNoise, sviluppato in collaborazione con i ricercatori di Harvard. Per non essere da meno, Meta (ex Facebook) ha recentemente aperto una libreria PyTorch per la privacy differenziale soprannominata Opacus.

Gli studi sottolineano l’urgente necessità di tecniche per nascondere i dati privati ​​nei set di dati utilizzati per addestrare i sistemi di IA. I ricercatori hanno dimostrato che anche i set di dati di raggi X “anonimizzati” possono rivelare le identità dei pazienti, ad esempio. E sono noti modelli linguistici di grandi dimensioni come GPT-3 di OpenAI, quando alimentati con determinati prompt, nomi di perdite, numeri di telefono, indirizzi e altro dai set di dati di addestramento.

La missione di VentureBeat deve essere una piazza cittadina digitale per i decisori tecnici per acquisire conoscenze sulla tecnologia aziendale trasformativa e le transazioni. Per saperne di più