Hugging Face fa un passo verso la democratizzazione dell’IA e del ML

354

Non sei riuscito a partecipare a Transform 2022? Dai un’occhiata a tutte le sessioni del vertice nella nostra libreria on-demand ora! Guarda qui.

I modelli di intelligenza artificiale (AI) di ultima generazione, noti anche come trasformatori, hanno già cambiato la nostra vita quotidiana, prendendo il volante per noi, completando i nostri pensieri quando scriviamo un’e-mail o rispondendo alle nostre domande nei motori di ricerca.

Tuttavia, in questo momento, solo le più grandi aziende tecnologiche hanno i mezzi e la manodopera per maneggiare questi enormi modelli su scala di consumo. Per mettere in produzione il loro modello, i data scientist impiegano in genere da una a due settimane, occupandosi di GPU, container, gateway API e simili, oppure devono richiedere a un team diverso di farlo, il che può causare ritardi. Le lunghe attività associate all’affinamento delle potenzialità di questa tecnologia sono una delle ragioni principali per cui l’87% dei progetti di machine learning (ML) non arriva mai alla produzione.

Per affrontare questa sfida, Hugging Face, con sede a New York, che mira a democratizzare l’IA e il ML tramite l’open source e la scienza aperta, ha lanciato Inference Endpoints. L’offerta AI-as-a-service è progettata per essere una soluzione per affrontare grandi carichi di lavoro delle imprese, anche nei settori regolamentati che utilizzano in modo massiccio i modelli di trasformatori, come i servizi finanziari (ad es. ambienti con gap d’aria), i servizi sanitari (ad es. , conformità HIPAA) e tecnologia di consumo (ad es. conformità al GDPR). La società afferma che Inference Endpoints consentirà a più di 100.000 utenti di Hugging Face Hub di passare dalla sperimentazione alla produzione in un paio di minuti.

“Abbracciare Face Inference Endpoints bastano pochi clic per trasformare qualsiasi modello nella propria API, in modo che gli utenti possano creare applicazioni basate sull’intelligenza artificiale, oltre a un’infrastruttura scalabile, sicura e completamente gestita, invece di settimane di noioso lavoro per reinventare la costruzione e la manutenzione della ruota infrastruttura ad hoc (contenitori, kubernetes, le opere.)”, ha affermato Jeff Boudier, direttore del prodotto di Hugging Face.

Evento

MetaBeat 2022

MetaBeat riunirà leader di pensiero per fornire indicazioni su come la tecnologia metaverse trasformerà il modo in cui tutti i settori comunicano e fanno affari il 4 ottobre a San Francisco, in California.

Registrati qui

Risparmiare tempo e fare spazio a nuove possibilità

La nuova funzionalità può essere utile per i data scientist, risparmiando tempo che possono invece dedicare al miglioramento dei propri modelli e alla creazione di nuove funzionalità di intelligenza artificiale. Con i loro modelli personalizzati integrati nelle app, possono vedere l’impatto del loro lavoro più rapidamente.

Per uno sviluppatore di software, Inference Endpoints consentirà loro di creare funzionalità basate sull’intelligenza artificiale senza la necessità di utilizzare l’apprendimento automatico.

“Abbiamo oltre 70.000 modelli disponibili per fare qualsiasi cosa, dalla sintesi di articoli alla traduzione, alla trascrizione del parlato in qualsiasi lingua, alla generazione di immagini con diffusori, come dice il cliché che il limite è la tua immaginazione”, ha detto Boudier a VentureBeat.

Quindi, come funziona? Gli utenti devono prima selezionare uno qualsiasi degli oltre 70.000 modelli open source sull’hub o un modello privato ospitato sul proprio account Hugging Face. Da lì, gli utenti devono scegliere il provider cloud e selezionare la propria regione. Possono anche specificare le impostazioni di sicurezza, il tipo di calcolo e la scalabilità automatica. Successivamente, un utente può implementare qualsiasi modello di machine learning, dai trasformatori ai diffusori. Inoltre, gli utenti possono creare applicazioni AI completamente personalizzate per abbinare anche testi o musica creando video originali con solo testo, ad esempio. L’utilizzo del calcolo viene fatturato a ore e mensilmente.

“Siamo stati in grado di scegliere un modello standard con cui i nostri clienti possono iniziare e impostarlo in modo che possa essere configurato per gestire oltre 100 richieste al secondo con pochi clic del pulsante”, ha affermato Gareth Jones, senior product manager di Pinecone, un’azienda che utilizza la nuova offerta di Hugging Face. “Con il rilascio di Hugging Face Inference Endpoints, crediamo che ci sia un nuovo standard per quanto sia facile creare la tua prima soluzione basata sull’incorporamento di vettori, che si tratti di ricerca semantica o sistema di risposta alle domande”.

Hugging Face ha iniziato la sua vita come chatbot e mira a diventare il GitHub dell’apprendimento automatico. Oggi la piattaforma offre 100.000 modelli pre-addestrati e 10.000 set di dati per l’elaborazione del linguaggio naturale (NLP), la visione artificiale, il parlato, le serie temporali, la biologia, l’apprendimento per rinforzo, la chimica e altro ancora.

Con il lancio degli Inference Endpoint, l’azienda spera di rafforzare l’adozione degli ultimi modelli di intelligenza artificiale in produzione per aziende di tutte le dimensioni.

“Ciò che è veramente nuovo e in linea con la nostra missione come azienda è che con Inference Endpoints anche la più piccola startup senza precedenti esperienze di machine learning può portare gli ultimi progressi dell’IA nella propria app o servizio”, ha affermato Boudier.

La missione di VentureBeat deve essere una piazza cittadina digitale per i decisori tecnici per acquisire conoscenze sulla tecnologia aziendale trasformativa e le transazioni. Scopri i nostri Briefing.