Naar inhoud gaan

Trending thema's

De aanjagers van kunstmatige intelligentie

Martijn

21.11.18 8 min. lezen

De bewegingswet van Hemingway stelt dat verandering in eerste instantie geleidelijk gebeurt en dan plotseling. En hoewel zijn oorspronkelijke citaat betrekking had op het proces van faillissement, kun je het toepassen op allerlei dingen. Van de evolutie van het leven op aarde tot de explosie van technologie en innovatie die we elke dag ervaren.

Voor ons gebeurt verandering geleidelijk en dan plotseling vanwege zijn exponentiële aard, iets dat nauw verbonden is met een fenomeen dat The law of accelerating returns wordt genoemd. Deze wet stelt dat elke innovatie de volgende innovatie gemakkelijker maakt.

Tarwe en schaakborden

Een exponentiële verandering lijkt ons geleidelijk te overkomen, en dan gebeurt er opeens heel veel. Om dat te begrijpen, verwijs ik naar de legende over het schaakbord en de graankorrels:

De uitvinder van het schaakspel leerde het aan zijn koning. De koning was zo enthousiast dat hij de man wilde belonen. De beloning mocht de man zelf kiezen. Hij vroeg de koning om een graankorrel op het eerste veld van het schaakveld, twee korrels op het tweede veld, vier korrels op het derde, acht op het vierde, etc. Op ieder veld dus steeds het dubbele aantal rijstkorrels van het vorige veld, totdat alle velden gevuld waren. Hoeveel tarwekorrels bevat het schaakbord dan uiteindelijk?

Het definitieve aantal is eenvoudig te berekenen: 18.446.744.073.709.551.615 tarwekorrels, die 1.199.000.000.000 ton zouden wegen, of ruwweg 1600 keer de globale jaarlijkse productie van tarwe in 2014.

Het interessante aan deze legende is wat er gebeurt als we van de eerste helft naar de tweede helft van het schaakbord gaan. Het vullen van de eerste 32 vierkanten zou iets meer dan 4 miljard graankorrels kosten. Dat lijkt veel, maar is niets vergeleken met de tweede helft. De 33e tegel alleen bevat meer korrels dan de hele eerste helft en de 64e tegel bevat meer dan twee miljard keer het aantal korrels op de eerste helft van het bord.

De stap van de eerste naar de tweede helft van het bord markeert een moment waarop een exponentieel groeiend fenomeen een aanzienlijke economische impact begint te krijgen. Vanuit het oogpunt van een nieuwe innovatie of technologie, is dit het punt waarop het mainstream wordt.

De term ‘Kunstmatige Intelligentie’ werd voor het eerst geïntroduceerd in de jaren 1950, samen met de eerste implementatie van de perceptron – een structuur die vandaag de basis is gaan vormen voor neurale netwerken. Het idee van backpropagation, het mechanisme dat veel soorten neurale netwerken gebruiken om gewichten aan te passen tijdens de training, werd voor het eerst voorgesteld in de jaren ’70. En hoewel het onderzoek naar machine-learning en neurale netwerken de afgelopen 70 jaar is voortgezet, zijn er pas recent nieuwswaardige doorbraken gedaan in kunstmatige intelligentie en services die hier gebruik van maken. Om terug te komen op bovenstaande analogie: het lijkt erop dat we zojuist zijn aanbeland op de tweede helft van het schaakbord.

Aanjagers van AI-innovaties

Nieuwe innovaties ontstaan door verschillende aanjagers. De smartphones van vandaag vereisten bijvoorbeeld innovatie in batterijen, schermen, touchscreen-technologieën, digitale camera’s, verkleinen van opslag, processoren met een laag vermogen, radiotechnologie en ondersteunende frameworks, zoals productie en software.

Om te begrijpen hoe AI de tweede helft van het schaakbord heeft bereikt, gaan we eens kijken naar de factoren die innovatie in het veld in toenemende mate mogelijk hebben gemaakt.

Rekenkracht

Simpel gezegd, de hoeveelheid benodigde rekenkracht om dit mogelijk te maken, bestond tot voor kort niet. Als we het aantal transistors op een geïntegreerde printplaat plotten tussen 1970 en vandaag, zouden we nog een andere exponentiële curve zien. Tussen 1970 en 2000 groeide dat aantal met ongeveer 50.000. Tussen 2000 en 2010 groeide hetzelfde aantal van 50.000 tot 5.000.000.000. Tegenwoordig is het aantal bijna 20.000.000.000 transistoren op een geïntegreerd circuit. Hoewel er theorieën zijn die de wet van Moore niet langer vasthoudt voor CPU’s (vanwege de wetten van de natuurkunde), moeten we niet vergeten dat GPU’s de koningen zijn van computersoftware voor het leren van taken, en dat specifieke Tensor Processing Units al worden gefabriceerd.

De groeisnelheid van de computerresources die nodig is om machine learning te ondersteunen, is nog steeds exponentieel. En die exponentiële groei beperkt zich niet alleen tot rekenkracht – hij geldt ook voor opslag, energie-efficiëntie, kosten en omvang van componenten.

Cloud Compute-bronnen hebben onderzoek naar machine learning mogelijk gemaakt doordat ze de kosten voor toegang tot het veld verlagen. Zeer krachtige computerbronnen zijn beschikbaar voor het publiek, te huur, tegen lage kosten (in vergelijking met het kopen van veel dure hardware of toegang hebben tot de supercomputer van een universiteit). Op het moment van schrijven kun je bijvoorbeeld een c5.18xlarge-exemplaar huren op AWS, dat 72 CPU’s en 144GB RAM voor $ 1,15 per uur of een p3.16xgroot exemplaar bevat, dat 8 GPU’s bevat (elk paar 5.120 CUDA-kernen en 640 Tensor Cores), 64 CPU-kernen en 488 GB RAM voor ongeveer $ 9 per uur (ter plaatse).

Beschikbare data

Ongeveer negentig procent van alle bestaande data is in de afgelopen twee jaar gemaakt. Als we naar cijfers van een jaar geleden kijken, werd geschat dat er dagelijks ongeveer 2,5 kwintiljoen (2.500.000.000.000.000.000) bytes aan nieuwe gegevens werden gegenereerd.

Het trainen van een machine learning-model vereist nauwkeurig gelabelde gegevens, en hoe meer monsters je hebt, hoe groter de kans dat je een bruikbaar en nauwkeurig model creëert. Smartphones en social media hebben in de afgelopen tien jaar enorm bijgedragen aan deze pool van gegevens. Deze rijke gegevensbron bestond een paar jaar geleden nog niet eens en heeft absoluut bijgedragen aan de geboorte van ons huidige tijdperk van machine learning.

Kwaliteit van tooling

Als je Python gebruikt (de meest populaire taal voor machine learning en data science-taken), heb je een breed scala aan gemakkelijk te gebruiken tools tot je beschikking. Laten we beginnen met Jupyter-notebooks, een interactieve notebook waarmee onderzoekers code kunnen schrijven en uitvoeren en output (in vele rijke indelingen) rechtstreeks kunnen genereren binnen een eenvoudige browserinterface. Bovendien heb je toegang tot wiskundige kaders (numpy), bibliotheken voor gegevensmanipulatie (panda’s) en gebruikersvriendelijke implementaties van standaardalgoritmes voor wetenschappelijke en machine learning algoritmen (SciPy, Scikit-Learn). Er is een groot aantal bibliotheken dat een onderzoeker in staat stelt om snel en gemakkelijk gegevens te visualiseren (de meest gebruikte is matplotlib). Er bestaan ​​raamwerken voor het maken en werken met neurale netwerken (Tensorflow, Keras, PyTorch). Er bestaan ​​ondersteuningskaders voor bepaalde soorten taken, zoals OpenAI Gym, dat interactieve 3D-omgevingen en interfaces voor videogames biedt. Al deze kaders worden actief verbeterd en omdat ze allemaal open source zijn, zijn ze gebouwd om samen te werken en elkaar te versterken.

Deze cheat sheet voor verschillende machine learning bibliotheken en frameworks visualiseert misschien het beste hoeveel tooling effect heeft op AI-gerelateerd onderzoek.

Momentum

Bewezen resultaten, gekoppeld aan een drastische toename van nieuwe wegen voor onderzoek op het gebied van machine learning, hebben geleid tot een massaal toegenomen belangstelling en investeringen in het veld. Als voorbeeld worden elke maand ongeveer 12.000 nieuwe papers ingediend bij arxiv.org (een van de vele repositories voor wetenschappelijke publicaties).

Als gevolg van recente successen met neurale netwerken, onderzoeken onderzoekers andere eerder voorgestelde technieken op het gebied van machine learning. Onderzoekers bij Uber hebben bijvoorbeeld onlangs aangetoond dat genetische algoritmen kunnen worden gebruikt om modellen te maken die Atari-videogames kunnen spelen. Deze modellen waren voorheen alleen gemaakt met behulp van reinforcement learning-technieken.

Gevarieerder en krachtiger

Taken als het identificeren van een kat in een afbeelding, teksten vertalen en het identificeren en prioriteren van strategieën (bijvoorbeeld schaken of een voertuig besturen) kan AI net zo goed als een mens. Maar bij repetitieve taken of werk waar je te maken hebt met een groot aantal datapunten presteert AI beter dan de mens. Omgekeerd zijn mensen beter in taken die creativiteit vereisen, in het toepassen van lessen uit verschillende vakgebieden en het nemen van beslissingen die niet op data gebaseerd kunnen worden.

Machine learning-technieken worden al succesvol toegepast op commercieel gebied. Denk aan beeld- of spraakherkenning, vertaling en aanbevelingssystemen. Maar realiseer je ook dat zelfs de eenvoudigste machine learning-technieken, bij goed gebruik, kunnen worden ingezet om data te begrijpen of visualiseren om trends of afwijkingen bloot te leggen die een mens nooit opgemerkt zou hebben.

Naarmate machine learning-technieken gevarieerder en krachtiger worden, en hulpmiddelen die deze technieken bevatten gebruiksvriendelijker worden, lijken steeds meer problemen opgelost te kunnen worden door machine learning.
Rustige periodes
Hoewel het onderzoek naar kunstmatige intelligentie de afgelopen 70 jaar een paar rustige periodes heeft doorstaan, maakt het huidige momentum het zeer onwaarschijnlijk dat er nog zo’n winter zal volgen. Machine learning is de uiterste grens, en het blijft. Veel bedrijven beseffen zich dit en vragen zich af hoe ze zich kunnen voorbereiden om te werken in een wereld die steeds meer door AI gedreven is.

Ons advies:
Begrijp wat machine learning en kunstmatige intelligentie zijn, hoe de verschillende technieken werken en hoe ze op jouw vakgebied toepasbaar zijn.
Begin deskundigheid op te bouwen binnen jouw organisatie.
Maak een datastrategie – bekijk de gegevens waarmee je werkt en hoe je machine learning-technieken kunt inzetten om die gegevens beter te begrijpen of om automatisering te creëren.
Vergroot de efficiëntie van de organisatie met machine learning.
Integreer machine learning in uw producten en diensten, waar mogelijk.

Bedrijven die machine learning omarmen, worden efficiënter. Werknemers krijgen namelijk de kans om zich helemaal te wijden aan werkzaamheden waar mensen beter in zijn. Dat verhoogt de efficiëntie uiteindelijk nog verder. De manier waarop bedrijven nu kunstmatige intelligentie benaderen, is van grote invloed op hoe concurrerend ze over een paar jaar zijn.

Dit artikel is geschreven door Andrew Patel, onderzoeker bij F-Secure’s Centre of Excellence voor kunstmatige intelligentie.

Martijn

21.11.18 8 min. lezen

Uitgelicht artikel

Verwante berichten

Newsletter modal

Bedankt voor je interesse in de cybersecurity update. Je ontvangt binnen enkele momenten een e-mail om je inschrijving te bevestigen.

Gated Content modal

Gefeliciteerd – Je kunt de content nu bekijken door op onderstaande button te klikken.