Diagnose, Ontwerp en Verandering

De next big thing!

Binnen het domein informatietechnologie wordt continue gekeken wat de volgende grote innovatie wordt. Liefst natuurlijk één met niet alleen enorme impact in IT-industrie zelf, maar vooral met enorme impact in de maatschappij. Na internet, facebook, eCommerce en vele zichtbare en onzichtbare IT-toepassingen in bijna iedere denkbare industriesector wordt meer en meer hardop nagedacht over ‘de next big thing’. De next-big-thing is wellicht dé heilige graal in IT-land. Ofwel inzet van computers en software die menselijk denkwerk kunnen overnemen.

Automatisering heeft in de vorige eeuw het leven van veel mensen totaal veranderd. Robots en baanbrekende automatisering hebben binnen veel productieprocessen gezorgd dat werk niet meer door mensen wordt gedaan. Rest nu dus alleen nog dat werk waarbij nog altijd menselijk inzicht en beoordelingsvermogen cruciaal is.

Binnen de maakindustrie, procesindustrie maar ook in de agrarische sector is de productiviteit enorm gestegen. Mensen zijn vervangen door machines, machines door intelligent geprogrammeerde installaties of robots en logistiek complexe puzzels lossen we al meer dan 20 jaar succesvol op met de meest krachtige software beschikbaar. Het nadeel tot op heden is dat voor het automatiseren zelf steeds meer en meer diepgaande kennis nodig is. De laatste industrietak waar mensen plaats zullen moeten maken voor automatisering zou daarom wel eens kennisintensief werk kunnen zijn. Want dit is duur, foutgevoelig en productiviteit is lastig schaalbaar. Ofwel heel veel mensen die nadenken over een oplossing van een probleem, brengt een oplossing vaak niet automatisch dichterbij.

Dé heilige graal binnen de IT is daarom al heel lang kunstmatige intelligentie. Echter het ontwikkelen van expertsystemen met zeer lerende algoritmes die zich ook nog aan een specifieke context kunnen aanpassen was lang een wiskundig te complex probleem. En zolang computers nog werken als geavanceerde rekenmachines bleek het wiskundig efficiënt modelleren om nog enig bruikbaar en toepasbaar resultaat te hebben lang onmogelijk.

brain

Aangezien rekenkracht (processorkracht) nog altijd goedkoper en krachtiger wordt, komen nu eindelijk een aantal veelbelovende AI toepassingen dichterbij. AI staat voor Artificial Intelligence ofwel kunstmatige intelligentie. Lerende algoritmes kunnen zijn ontworpen om vanuit een enorme berg voorbeelddata belangrijke taken leren. Dit type computerleren is vaak efficiënter en goedkoper dan zeer ingewikkelde software te maken. Denk bijvoorbeeld aan een algoritme wat in staat is om een gezicht met specifieke kenmerken te herkennen uit willekeurige beelden. Hoe meer voorbeelddata wordt gebruikt, hoe beter het algoritme kan worden afgesteld op de taak die uiteindelijk in het echt verricht moet worden. Nu het veel goedkoper is om data te bewaren en steeds meer en meer data beschikbaar is ( ‘de big-data’ ontwikkeling) kunnen lerende algoritmes voor steeds meer triviale problemen worden ingezet.

Echter het succesvol toepassen van zelflerende applicaties vereist nog altijd een substantiële hoeveelheid ‘black magic’. Deze kennis is namelijk nauwelijks te vinden in (wetenschappelijke)tijdschriften en boeken. Denk aan de kennis die binnen IT afdelingen van de NSA (National Security Agency) is ontwikkeld met het ontwikkelen van algoritmes om effectief email verkeer te analyseren op terroristische activiteiten.

Mocht je aan de slag gaan met het zoeken of ontwerpen van lerende algoritmes dan kan je al snel de kluts kwijtraken in ongrijpbare en onvergelijkbare wiskundige formules. Het is dan goed om terug te gaan naar de essentie en het algoritme te vergelijken met de simpele formule:

LEARNING = REPRESENTATION + EVALUATION + OPTIMIZATION

Representatie heeft betrekking op de hypothese die getoetst moet worden. De evaluatie heeft betrekking op het vermogen om goede antwoorden van foute te kunnen onderscheiden. De optimalisatiefactor heeft betrekking op de efficiency van het leeralgoritme. Dé heilige graal in kunstmatige intelligentie is om uiteindelijk algoritmes te ontwerpen die in staat zijn om te generaliseren of conclusies te trekken buiten het domein van een voorbeelddataset. Echte data dus, vanuit de echte wereld om zo nieuwe verbanden te leggen en nieuwe inzichten te ontwikkelen. Foute beslissingen door kunstmatige intelligentie kunnen onze veiligheid en gezondheid ernstig in gevaar brengen. Daarom zien we ook dat het vervangen van complexe taken door computer langzaam en stapsgewijs gaat. Zelfrijdende auto’s, treinen en vliegtuigen zonder mens aan het stuur vinden we nog een beetje eng. Hoewel dit voor software algoritmes nog redelijk eenvoudige taken zijn. Complexere domeinen waar nu nog veel kenniswerkers werken, zoals het ontwerpen van een nieuwe producten, complex administratief werk, zijn kandidaat om met het beschikbaar komen van nieuwe technologische mogelijkheden overgenomen te worden door computers.

De vraag is natuurlijk wat dit betekent voor de kennis, kunde en competenties van de huidige kenniswerkers in de IT-sector in 2024?

nextbigthing