IBM annuncia l’hardware AI system-on-chip

112

Registrati ora per il tuo pass virtuale gratuito per il Summit Low-Code/No-Code del 9 novembre. Ascolta i dirigenti di Service Now, Credit Karma, Stitch Fix, Appian e altri. Scopri di più.

Gli ultimi anni hanno visto una crescente domanda di hardware per l’accelerazione dell’intelligenza artificiale (AI). IBM ne ha preso atto.

Agli albori dell’IA, le tecnologie commerciali di CPU e GPU erano sufficienti per gestire le dimensioni dei dati e i parametri computazionali della tecnologia. Ma con l’emergere di set di dati più grandi e modelli di deep learning, ora c’è una chiara necessità di un’accelerazione hardware dell’IA appositamente progettata.

IBM sta ora lanciando il suo cappello nell’anello dell’accelerazione hardware con il suo annuncio questa settimana dell’IBM Artificial Intelligence Unit (AIU). L’AIU è una scheda system-on-chip completa che può essere collegata ai server tramite un’interfaccia PCIe standard del settore.

L’IBM Artificial Intelligence Unit è una scheda di accelerazione AI completa di system-on-chip che si collegherà agli slot PCIe standard del settore. Credito: ricerca IBM

L’AIU si basa sullo stesso core AI integrato nel chip Tellum di IBM, che alimenta i mainframe della serie IBM z16, incluso LinuxOne Emperor 4. Ogni AIU ha 32 core, sviluppati con un processo a 5 nm (nanometro), mentre i core AI sul processore Tellum sono 7 nm.

Evento

Summit Low-Code/No-Code

Unisciti ai principali dirigenti di oggi al Summit Low-Code/No-Code virtualmente il 9 novembre. Registrati per il tuo pass gratuito oggi.

Registrati qui

“Qui in IBM Research, abbiamo un team di microarchitettura e progettazione di circuiti molto forte che si è concentrato su progetti ad alte prestazioni principalmente per HPC [high-performance computing] e server per molti decenni”, ha detto a VentureBeat Jeff Burns, direttore dell’IBM Research AI Hardware Center. “Quindi le stesse persone hanno iniziato a pensare all’accelerazione del deep learning”.

Accelerare l’IA con l’Unità di Intelligenza Artificiale (AIU) di IBM

Le idee di base dietro l’acceleratore AI di IBM hanno iniziato a essere sviluppate nel 2017 e sono state ampliate negli anni successivi.

Il lavoro di accelerazione dell’IA è stato ripreso dall’IBM Systems Group, che ha integrato la tecnologia nei processori in esecuzione nei mainframe. Burns ha affermato che il suo team voleva anche progettare un system-on-chip completo insieme a una scheda PCIe per creare un dispositivo di accelerazione AI collegabile che potesse entrare nel cloud basato su x86 di IBM, i server aziendali basati su Power di IBM o i server che i partner di IBM potrebbe costruire.

L’AIU non è una CPU o una GPU, ma piuttosto un circuito integrato specifico dell’applicazione (ASIC). Burns ha spiegato che invece di prendere la tecnologia GPU e ottimizzarla per l’IA, l’approccio IBM è stato progettato da zero per l’IA. In quanto tale, l’AIU ha alcune capacità che non fanno sempre parte dei comuni acceleratori di intelligenza artificiale. Uno è la capacità di virtualizzare i servizi di accelerazione dell’IA che l’AIU può abilitare.

In qualsiasi ambiente cloud o aziendale, sono presenti più carichi di lavoro in esecuzione sull’hardware che richiedono l’accesso alle risorse di accelerazione AI. Il modo in cui un operatore è in grado di distribuire l’accesso all’hardware è con la virtualizzazione.

“Le GPU non erano affatto virtualizzate all’inizio, e questo è un punto in cui un design legacy e un nuovo design finiscono per essere nettamente diversi”, ha affermato Burns. “Se prendi qualcosa che non è stato progettato per essere virtualizzato e poi provi a modificarlo per supportare bene la virtualizzazione, può essere un viaggio lungo e piuttosto difficile”.

Burns ha spiegato che IBM AIU è stato progettato per supportare la virtualizzazione aziendale, che include la possibilità di essere multiutente e multi-tenant in modo affidabile per garantire che i carichi di lavoro siano isolati l’uno dall’altro.

IBM ha anche progettato l’AIU per essere il più compatibile possibile con la stragrande maggioranza dello stack software utilizzato dai moderni data scientist, inclusi strumenti comuni come le tecnologie open source PyTorch e TensorFlow.

Il calcolo approssimativo è la salsa segreta dell’IBM AIU

Un’innovazione chiave che IBM sta integrando con la sua AIU è una tecnica per l’accelerazione AI chiamata calcolo approssimativo, per aiutare a migliorare le prestazioni.

“Il calcolo approssimativo è davvero il riconoscimento che l’IA non è corretta al 100%”, ha detto a VentureBeat Leland Chang, principale membro dello staff di ricerca e senior manager, hardware AI, presso IBM Research.

Chang ha spiegato che l’IA spesso funziona riconoscendo uno schema e potrebbe essere precisa solo al 99%, il che significa che l’1% dei risultati non è corretto. Il concetto di calcolo approssimativo è il riconoscimento che all’interno dell’algoritmo AI è possibile tagliare alcuni angoli. Mentre Chang ha ammesso che ciò può ridurre la precisione, ha spiegato che se le informazioni vengono perse nei posti giusti, non influisce sul risultato, che, il più delle volte, sarà comunque corretto al 99%.

“Il calcolo approssimativo, in una certa misura, è una frase e un nome dal suono gradevole, ma sta semplicemente riconoscendo che non deve essere esatto al 100%”, ha detto Chang. “Stai perdendo alcune informazioni, ma stai perdendo in posti dove non importa.”

La missione di VentureBeat deve essere una piazza cittadina digitale per i decisori tecnici per acquisire conoscenze sulla tecnologia aziendale trasformativa e le transazioni. Scopri i nostri Briefing.