memBrain risolve le sfide dell’elaborazione vocale edge

0
1030
memBrain risolve le sfide dell'elaborazione vocale edge
4
(1)

La tecnologia computing-in-memory è pronta ad eliminare i massicci colli di bottiglia delle comunicazioni dati associati all’esecuzione di dati vocali dell’intelligenza artificiale (AI) nei dispositive edge, ma richiede una soluzione di memoria embedded che esegua simultaneamente il calcolo della rete neurale e memorizzazione dati.

Microchip Technology, tramite la sua sussidiaria Silicon Storage Technology (SST), ha annunciato che la sua soluzione di memoria neuromorfica memBrain SuperFlash ha risolto questo problema per il SoC di elaborazione neurale WITINMEM, il primo in produzione in volume che consente a sistemi con consumio sub-mA di ridurre il rumore di fondo e riconoscere centinaia di parole di comando, in tempo reale e subito dopo l’accensione.

Microchip ha collaborato con WITINMEM per incorporare la soluzione di elaborazione in-memory analogica memBrain, basata sulla tecnologia SuperFlash, nel SoC a bassissima potenza di WITINMEM.

Il SoC è dotato della tecnologia computing-in-memory (calcolo in memoria) per l’elaborazione delle reti neurali, tra cui riconoscimento vocale, riconoscimento dell’impronta vocale, riduzione profonda del rumore del parlato, rilevamento di scene e monitoraggio dello stato di salute.

WITINMEM, a sua volta, sta lavorando con più clienti per portare prodotti sul mercato durante il 2022 sulla base di questo SoC.

memBrain è ottimizzato per eseguire la moltiplicazione della matrice vettoriale (VMM) per le reti neurali.

Consente ai processori utilizzati nei dispositivi edge alimentati a batteria e profondamente integrati di offrire le massime prestazioni di inferenza AI possibili per watt.

Ciò si ottiene memorizzando i pesi del modello neurale come valori nell’array di memoria e utilizzando l’array di memoria come elemento di calcolo neurale.

Il risultato è un consumo energetico da 10 a 20 volte inferiore rispetto agli approcci alternativi insieme a costi complessivi della distinta base del processore (BOM) inferiori perché non sono richieste DRAM e NOR esterne.

La memorizzazione permanente dei modelli neurali all’interno dell’elemento di elaborazione della soluzione memBrain supporta anche la funzionalità di attivazione istantanea per l’elaborazione della rete neurale in tempo reale.

WITINMEM ha sfruttato la non volatilità delle celle a gate flottante della tecnologia SuperFlash per spegnere le sue macro di computing-in-memory durante lo stato inattivo per ridurre ulteriormente la dispersione di potenza nei casi d’uso IoT impegnativi.

Commenti

WITINMEM sta aprendo nuovi orizzonti con la soluzione memBrain di Microchip per soddisfare i requisiti ad alta intensità di elaborazione del parlato AI in tempo reale nei sistemi edge sulla base di modelli di rete neurale avanzati“, ha affermato Shaodi Wang, CEO di WITINMEM. “Siamo stati i primi a sviluppare un chip di computing-in-memory per l’audio nel 2019 e ora abbiamo raggiunto un altro traguardo con la produzione in volume di questa tecnologia nel nostro SoC di elaborazione neurale a bassissima potenza che ottimizza e migliora le prestazioni di elaborazione del parlato in voce intelligente e prodotti per la salute”.

Siamo entusiasti di avere WITINMEM come nostro cliente principale e siamo lieti con l’azienda per essere entrata nel mercato in espansione dell’elaborazione AI edge con un prodotto superiore che utilizza la nostra tecnologia“, ha affermato Mark Reiten, vice president of the license division di SST. “Il SoC WITINMEM mostra il valore dell’utilizzo della tecnologia memBrain per creare una soluzione a chip singolo basata su un processore neurale computing-in-memory che elimina i problemi dei processori tradizionali che utilizzano approcci basati su DSP digitale e SRAM/DRAM per l’archiviazione e l’esecuzione modelli di apprendimento automatico“.

Per informazioni clicca qui 

Quanto hai trovato interessante questo articolo?

Voto medio 4 / 5. Numero valutazioni: 1

Ancora nessuna valutazione! Valuta per primo questo articolo.