GSCMOS Holistic Een holistische kijk op machine vision Door: Arnaud Destruels, MV Product Marketing Manager, Sony Image Sensing Solution Europe Om topprestaties in machine vision te bereiken moet je precies weten hoe beeldverwerkingsfuncties werken en welke snelheidsbeperkende factoren de prestaties van machine vision verminderen. In een ideale wereld zou de belichting in een machine visionsysteem moeten zorgen voor exact dezelfde weergave van elk deel van het belichte beeld. Maar zelfs in de zorgvuldig gecontroleerde omstandigheden van een productielijn is dit moeilijk te bereiken. De oppervlakken die we proberen te meten kunnen op sommige plaatsen sterk reflecteren en op andere plekken juist weinig contrast geven. Met als resultaat schittering in het ene en vage vormen in een ander gedeelte. De camera's die worden gebruikt bij machine vision, hebben vaak eigenschappen die ook in andere applicaties buiten de maakindustrie goed van pas komen. Zo heb je bij intelligente transportsystemen meestal geen goede controle over de belichting. Alleen al de stand van de zon kan er voor zorgen dat op bepaalde tijden kentekenplaten niet goed kunnen worden uitgelezen. Of een passerend voertuig kan net voor een schaduw zorgen over de kentekenplaat of andere objecten die met het visionsysteem moeten worden herkend. Aan die wisselende omgevingsinvloeden kunnen we niet veel doen, maar we kunnen wel een systeem ontwerpen dat daar beter mee om kan gaan. Met geavanceerde imaging technieken, zoals CMOS, kan het probleem van de wisselende omgevingsinvloeden op systeemniveau worden opgelost. De hoge verwerkingscapaciteit van de CMOS beeldsensoren zorgt sowieso al voor een verbetering van de algemene beeldkwaliteit. Waar bij een CCD-architectuur een A/Dconverter aan het einde van een rij pixels de lading omzet naar een spanning, gebeurt dit bij CMOS op elke pixel apart. Deze parallelle bewerkingen maken dat de pixeldata veel sneller zijn uit te lezen dan bij de traditionele CCD’s. Door de gevoeligheid van de CMOS pixels te verhogen en de parallelle architectuur volledig te benutten, is het nu mogelijk om beeldsensoren te maken die 150 beelden per seconde kunnen opnemen. Met dergelijke prestaties is het mogelijk om meerdere beelden te combineren tot een enkel samengesteld beeld en zo defecten te elimineren 1 GSCMOS Holistic die bijvoorbeeld worden veroorzaakt door warmteverschillen. Subtiel aanpassen van de belichting van elk frame in het samengestelde beeld, levert beelden met een veel hoger dynamisch bereik dan met één enkele opname mogelijk is. Het hoge dynamische bereik maakt dat delen van het beeld kunnen worden aangepast qua helderheid en contrast zonder dat dit ten koste gaat van de totale nauwkeurigheid. Met als resultaat veel meer samenhang onder wisselende, lastige lichtomstandigheden. Het is ook belangrijk om te begrijpen hoe de architectuur van de CMOS-beeldsensor ons juist kan tegenwerken. Consumenten videocamera's maken doorgaans gebruik van ‘rolling shutter’ technologie, waarbij het beeld pixelrij voor pixelrij wordt opgenomen. Bij industriële beeldverwerking kunnen we ons deze tijdseffecten niet veroorloven. Daarom moet een ‘global shutter’ benadering worden toegepast zodat alle pixels hun deel van het beeld op exact hetzelfde moment verwerken. De betere prestaties door de hoge beeldverwerkingssnelheden en de ‘global shutter’ technologie hebben ook hun weerslag op andere systeemcomponenten. Zo moeten ontwerpers zich niet alleen toeleggen op het verbeteren van de tijdsnauwkeurigheid, maar moet ook de ruimtelijke nauwkeurigheid worden geoptimaliseerd. Het ontwerp van de Sony GS CMOS camera's voorziet derhalve in uiterst kleine montagetoleranties zodat de beelden ook bij hoge verwerkingssnelheden altijd nauwkeurig worden vastgelegd. Ondersteuning van protocollen zoals het IEEE1588 Precision Time Protocol zorgt voor een verdere verbetering van de nauwkeurigheid van visionsystemen in productielijnen. Hierdoor kan de software bijvoorbeeld ieder object optimaal identificeren bij het passeren van de camera en aangeven waar het zich op de band bevindt als het moet worden verwijderd of verderop door een robot moet worden verwerkt. Tegelijkertijd zorgt de software met speciale technieken, die bijvoorbeeld botsingen in de netwerkinterfaces vermijden, voor een gestroomlijnde datastroom, zodat de werking van het visionsysteem ook op dat gebied niet nadelig wordt beïnvloed. Al deze en nog andere aspecten moeten optimaal op elkaar zijn afgestemd om een daadwerkelijk high-performance beeldverwerkingssysteem te kunnen bouwen. Het is niet alleen een kwestie van het verhogen van de aantallen pixels en beelden per seconde, hoewel die natuurlijk wel belangrijke onderdelen van de totale oplossing blijven. 2