Vraag het VSE: Deep learning
Deep: diep
Learning: leren
Deep learning: diep leren, verdiepend leren
Deep learning heeft te maken met kunstmatige intelligentie en bestaat eigenlijk al sinds de jaren vijftig van de vorige eeuw, in de vorm van de zogenaamde neurale netwerken. Dat deep learning pas nu algemeen bekend wordt, heeft voor een groot deel te maken met de onvoorstelbare hoeveelheid rekenkracht (‘computing power’ in het Engels) die nodig is om alle devices die we tegenwoordig gebruiken goed te laten werken. Met devices (eigenlijk een vreselijk woord) bedoelen we niet alleen laptops en andere computers, maar bijvoorbeeld ook smartphones, de zelfdenkende en -regulerende thermostaat en de intelligente koelkast.
Maar hoe werkt deep learning eigenlijk?
Deep learning is het resultaat van goede algoritmes. En algoritmes zijn niet eng. Een algoritme is een hulpmiddel waarmee computers patronen leren herkennen uit eindeloos veel voorbeelden. Door een computer honderdduizenden foto’s van Elton John te laten zien, leert die computer de trekken van de Britse zanger te herkennen en ‘weet’ op een gegeven moment: “Hee, dat is Elton John!” Net zoals wij Elton – geef het nou maar toe – ook ergens in onze hersenen hebben opgeslagen. Nu kan de computer dus voortaan ook Elton John aanwijzen.
Bij deep learning worden signalen verwerkt en gecontroleerd. Het resultaat mag niet toevallig zijn, dus er komt wat meer bij kijken dan het aanbieden van informatie. Je moet deep learning als het ware trainen. De neurale netwerken die worden toegepast bij deep learning zijn: je raadt het misschien al, dieper dan andere neurale netwerken. Een netwerk met een groot aantal lagen en verborgen lagen die complexe informatieverwerking mogelijk maken. De netwerken zijn in staat om binnen ongestructureerde en ongelabelde datastructuren te ontdekken.
Om een nauwkeurige uitkomst te bereiken, hebben deep learning-programma’s enorme hoeveelheden trainingsgegevens nodig en een enorme verwerkingscapaciteit. Big data en cloud computing zijn in dit verband dus goede ontwikkelingen. Omdat deep learning in staat is om complexe statistische modellen op te leveren, is het zelfs in staat om nauwkeurige voorspellende modellen te maken uit grote hoeveelheden ongelabelde data. Best handig voor de enorme hoeveelheid ongelabelde data die het Internet of Things (IoT) ons iedere dag weer levert. En die hoeveelheid gaat alleen maar toenemen.
Algoritmes hebben geen eigen wil. Ze zijn zelfs al jaren onderdeel van ons dagelijks leven. Zonder algoritmes zou de navigatie in de auto de weg naar huis niet kunnen vinden. De eerdergenoemde thermostaat en zelfdenkende koelkast zouden niet werken. En het is ook niet zo dat een intelligente wasmachine ‘s nachts stiekem een eigen programmaatje draait. Of dat op een kruispunt alle verkeerslichten bewust op rood worden gezet.
We moeten oppassen met antropomorfisme. Da’s een moeilijk woord voor menselijke eigenschappen toedichten aan dieren of dingen. Want dan lijkt het net of we een deel van onze verantwoordelijkheid naar de machines verschuiven. Algoritmen zijn niet de vijand. Ze zijn geavanceerd gereedschap in de handen van mensen zoals wij.