Van input tot output: Machine Vision uitgelegd

Het lijkt simpel: een pallet met willekeurige metalen onderdelen wordt verplaatst door een robot naar een ander pallet. Een camera registreert de onderdelen en met behulp van slimme software wordt dit vertaald naar een handeling of bewerking. Dit is in het kort de basis van Machine Vision. Achter dit proces schuilt echter veel informatie die verwerkt moet worden. Hierbij zijn vier stappen van belang: Het verzamelen van gegevens zoals afbeeldingen, het verwerken van informatie uit deze afbeelding, het analyseren van deze informatie en het communiceren van de juiste vervolgstappen naar de robot.

1: Het verzamelen van gegevens

Het gebruik van een camera is onmisbaar voor het verzamelen van afbeeldingen. De camera legt de beelden vast en geldt daarom als input-instrument voor de machine. Het gebruik van een kwalitatief goede camera is cruciaal voor het verwerken van de afbeeldingen in een later stadium. Problemen die kunnen optreden zijn bijvoorbeeld weerkaatsing van het oppervlakte bij metalen producten, schaduw, lichtval, beweging of slechte resolutie.

De easyEye® camera van Teqram maakt gebruik van een lens met 10x optische zoom en bewegingsvrijheid tot 270° wijd en 150° hoog. Afbeeldingen worden hiermee in snel tempo vastgelegd en opgeslagen in hoge resolutie.

2: Het verwerken van informatie uit afbeeldingen

De volgende stap is het ontdekken van de informatie die nodig is uit de afbeeldingen. Een machine vision systeem moet bijvoorbeeld uit een afbeelding van een pallet met metalen onderdelen de juiste locatie, afmetingen, vormen, kleuren en bereikbaarheid van producten kunnen bepalen. Normaal gesproken houden robots op bij een afwijking van bovenstaande criteria.

De technologie van Teqram maakt echter bin-picking van metalen onderdelen mogelijk. De robot blijft doorwerken onafhankelijk van productafmetingen of veranderende omgevingen. De ontwikkelingen op dit gebied volgen elkaar in razend tempo op en de uitdaging ligt in het overhevelen van deze artificial intelligence en deeplearning naar toepassingen in industriële omgevingen.

palletizingHet verplaatsen van objecten op een pallet

3. Het analyseren van de verwerkte informatie uit afbeeldingen

Na het identificeren van producten en onderdelen volgt het analyseren van de gegevens. Kan dit onderdeel worden opgepakt? Hoeveel kracht is daarbij nodig? Is dit het juiste product? Kan dit product op een ander product gestapeld worden? Voldoet dit product aan de eisen? Om deze vragen te kunnen beantwoorden wordt door Teqram gebruik gemaakt van slimme en modulaire software voor deeplearning algoritmes; het easyFlexibleFramework. Zo kunnen geïdentificeerde objecten in real-time worden vergeleken met CAD/CAM modellen om deze op afwijkingen te controleren en om te bevestigen dat het juiste product wordt gekozen.

4. Het communiceren van de gegevens naar de machine

Na het analyseren van de gegevens moet een volgend onderdeel in het traject, zoals externe software of een robotarm, weten wat het met het object moet doen. Dit zal in de meeste gevallen het verplaatsen van het object naar een andere locatie zijn, zoals op een pallet of op een machine. Een belangrijke ontwikkeling die op dit moment doorgevoerd wordt in deze stap is de verwerkingstijd. Een robot met machine vision moet in staat zijn om dezelfde taak eindeloos en zo snel mogelijk te kunnen herhalen. Dit wordt mogelijk gemaakt door de software technologie van Teqram, die dankzij deeplearning en zelflerende algoritmes in staat is om zelfstandig taken sneller en efficiënter uit te voeren.

palletizingDe camera scant objecten op een pallet