Neurale netwerken lenen zich goed voor toepassingen als deep learning. Bedrijven als Google gebruiken dergelijke algoritmen om bijvoorbeeld een computer zelfstandig afbeeldingen te laten herkennen na het doorlopen van een leertraject.
Deskundigen en softwareontwikkelaars die neurale netwerken willen opzetten, gebruiken vaak gpu-chips. Deze graphics processing units, die vooral benut worden om 3D-graphics te genereren, lenen zich door het grote aantal rekenkernen - een gpu bevat tientallen tot honderden cores - bij uitstek om een virtueel neuraal netwerk met tal van knooppunten te laten draaien. Een nadeel is alleen dat gpu's relatief veel stroom verstoken en daarmee minder geschikt zijn voor toepassingen op bijvoorbeeld een smartphone. Daarom worden veel van dergelijke berekeningen door mobiele apps uitbesteed aan cloudplatformen.
Eyeriss is zeer zuinig
Het chipontwerp van MIT, dat tot Eyeriss is gedoopt, bevat tal van optimalisaties waardoor de processor zich bij uitstek leent voor deep learning. Zo zijn de 168 rekeneenheden in de processor relatief zelfstandig maar kunnen zij wel snel data uitwisselen met naburige cores. Hierdoor hoeft er minder data te worden gelezen uit of weggeschreven naar het werkgeheugen. Ook past de chip compressie toe voor elke lees- en schrijfactie. Met deze en enkele andere optimalisaties bespaart de Eyeriss veel stroom.
Dankzij het ontwerp verbruikt de Eyeriss-processor 10 maal minder stroom dan een reguliere mobiele gpu. Dit maakt de chip interessant voor mobiele toepassingen die nu nog nauwelijks praktisch zijn om op een doorsnee smartphone uit te voeren. In potentie kan de Eyeriss zelfstandig spraak- en beeldherkenning uitvoeren zonder dat een cloudsysteem nodig is. Ook voor tal van sensoren ontstaan met dergelijke chips nieuwe toepassingsmogelijkheden.
Bron: MIT | Foto: Gerd Leonhard, via Flickr Creative Commons (Cropped by Duurzaambedrijfsleven)
schrijf je in voor de nieuwsbrief
Wil jij iedere ochtend rond 7 uur het laatste nieuws over duurzaamheid ontvangen? Dat kan!
Schrijf je nu in