
Een sterke trend in de computerwetenschap die zich uitstrekt tot het gebied van kunstmatige intelligentie is de wet van Moore, die stelt dat het aantal transistors in een microchip elke twee jaar verdubbelt. Hieruit kan worden afgeleid dat de kosten voor rekenkracht afnemen en omdat de huidige ontwikkelingen op het gebied van AI sterk afhankelijk zijn van de beschikbare rekenkracht, zorgt dit ervoor dat AI snel meegroeit.
Sinds het ontstaan van computers heeft deze trend een verschuiving veroorzaakt in de manier waarop we praktische problemen benaderen. Waar in het verleden technische oplossingen werden gezocht in logisch gedefinieerde oplossingen door programmering en op regels gebaseerde systemen, worden de problemen tegenwoordig beschreven in de vorm van geannoteerde gegevens en voorbeeldafbeeldingen of geschreven natuurlijke taal waarvan het AI-systeem leert of waarop de AI handelt.
Door extreme hoeveelheden gegevens en schijnbaar overvloedige computerbronnen zijn er funderingsmodellen ontstaan die in staat zijn om al lang bestaande problemen zoals beeldsegmentatie, volgen en chatten in het algemeen op te lossen. Deze modellen kunnen alleen worden getraind met behulp van grote investeringen in, voornamelijk, de elektriciteitsrekening. Deze belangrijke energiebron is niet oneindig beschikbaar, we moeten de wet van Moore toepassen om de totale kosten van AI te verlagen of slimmere oplossingen bedenken.
Omdat bij AI de oplossing voor een praktisch probleem wordt bepaald door de gegevens, blijft de achilleshiel de kwaliteit van de gegevens. Hoe beter de kwaliteit van de gegevens, hoe effectiever het model kan worden getraind. Op dezelfde manier maakt het definiëren van subtaken, volgens een beproefde probleemoplossingsstrategie, het vinden van een oplossing voor een probleem eenvoudiger. Dit betekent dat het slim combineren van verschillende modellen het hele systeem minder afhankelijk maakt van grote hoeveelheden gegevens. Sommige deeltaken kunnen bijvoorbeeld gemakkelijk worden opgelost door de bestaande voorgetrainde modellen, terwijl andere te probleemspecifiek blijven en verdere verfijning vereisen.
Deze datacentrische strategie is van onschatbare waarde gebleken voor het oplossen van praktische toepassingen met AI en computervisie. De meest voor de hand liggende oplossing zou kunnen zijn om data en rekenkracht steeds verder te vergroten, maar voor echte toepassingen is dit niet altijd haalbaar. Voor het maken van röntgenfoto's van mensen zijn lage doses nodig, schadelijke insecten zoals de groene perzikmug zijn zeldzaam, molenwieken zijn moeilijk te bereiken, seizoensproducten zoals fruit zijn meestal niet beschikbaar. In de meeste van deze toepassingen is er een inherent gegevenstekort dat moet worden aangepakt.
Het onderzoek richt zich op het ontwikkelen van strategieën om de beschikbare gegevens optimaal te gebruiken om specifieke taken uit het echte leven op te lossen, hetzij in een modelgerichte of een datacentrische benadering. Enerzijds is er het effect van de gegevens zelf: kwaliteit van de beelden en annotaties, beschikbaarheid van beelden en annotaties, verdeling van de klassen of ontbrekende en onbekende klassen. Anderzijds is er de architectuur van de modellen zelf: hoe gaan modellen om met ontbrekende gegevens voor afwijkende klassen, hoe kunnen modellen worden getraind met gegevens van slechte kwaliteit of met kleine gegevens, hoe kan het automatisch selecteren van geschikte afbeeldingen helpen bij het verbeteren van de algemene prestaties.
Naast de gevestigde strategieën zoals data-augmentatie en fijnafstemming om modellen te maken met relatief kleine hoeveelheden gegevens, is een nieuwe en opwindende onderzoeksrichting de combinatie van modelgerichte en datacentrische benaderingen. Dit draait om het gebruik van synthetische beelden wanneer er niet genoeg echte gegevens beschikbaar zijn. Dit is een onderzoeksonderwerp waarbij visueel overtuigende digitale tweelingen van processen worden gemaakt, met behulp van vooraf getrainde deep learning modellen, 3D-afbeeldingen of een combinatie van beide. Dit kan worden gezien als een uitbreiding van data-augmentatie en vereist het omgaan met de wisselwerking tussen big-data, small-data en modellen, evenals slimme oplossingen voor het combineren en aanpassen van algemene modellen voor specifieke taken.