Platform over productie- en procesautomatisering
Collaboratieve binpicking

Collaboratieve binpicking

Hoe kunnen collaboratieve handlingsscenario’s worden geïmplementeerd in niet-gestructureerde omgevingen? SCHUNK nam deze kwestie in samenwerking met KUKA en Roboception onder handen. In een technologiestudie tonen drie bedrijven hoe bin picking in een collaboratief proces snel, simpel en efficiënt kan verlopen.

De voorbeeldtaak wordt realistisch opgesteld: niet-gesorteerde metalen onderdelen worden door een cobot gegrepen, van een bak genomen, in een slijpmachine geplaatst en na de bewerking nauwkeurig weggeplaatst. Parallel hieraan kunnen arbeiders tijdens het bedrijf handmatig de transportboxen of individuele onderdelen toevoegen, verplaatsen of verwijderen. Op deze manier combineert de studie bin picking met het concept human-robot collaboration (HRC), en maakt het gebruik van de interactie van verschillende toonaangevende technologieën van robotica, grijptechnologie en beeldherkenning.

Nadat de voordelige rc_visard van Roboception de optimale grijppunten voor een niet-gesorteerd werkstuk in
< 1s heeft bepaald, gebruikt de KUKA Cobot de SCHUNK Co-act-grijper om het onderdeel weg te nemen en het volledig automatisch in de fictieve machine te plaatsen. Een arbeider kan te allen tijde ingrijpen in het proces.
(Beeld: Sven Cichowicz)

 

Optimale grijppunten bepalen

Aan de hand van CAD-gebaseerde herkenning registreert Roboception’s passieve stereocamerasysteem rc_visard de niet-gesorteerde werkstukken. ‘s Werelds eerste 3D-sensor, waarmee robots 3D-metingen en positioneringen in de ruimte kunnen uitvoeren, verwerkt direct in het camerasysteem volledige dieptebeelden in < 1s. Vervolgens worden deze gebruikt om per geval de optimale grijppunten te bepalen en de sensor stuurt ze dan, zonder een externe pc, direct door aan de collaboratieve robot van KUKA. Als aanvulling op de beelden van de camera, levert de voordelige industriële sensor diepte­afbeeldingen, nauwkeurigheids­afbeeldingen en betrouwbaarheidsafbeeldingen. Die laatste dienen als een bepaling van de betrouwbaarheid van de dieptemetingen die bij methodes met artificiële intelligentie (AI) kan worden gebruikt als basis om besluiten te nemen. Omdat het passieve camerasysteem de omgeving zowel in natuurlijk als in kunstmatig licht in verschillende werkomgevingen herkent, zijn talrijke bedrijfsomgevingen mogelijk. Nadat de voordelige rc_visard van Roboception de optimale grijppunten voor een niet-gesorteerd werkstuk in < 1s heeft bepaald, gebruikt de KUKA Cobot de SCHUNK Co-act-grijper om het onderdeel weg te nemen en het volledig automatisch in de fictieve machine te plaatsen. Een medewerker kan te allen tijde ingrijpen in het proces.

Portfolio Co-act-grijper

De voorkant van de cobot is dus uitgerust met een SCHUNK Co-act-grijper, speciaal ontworpen voor de desbetreffende toepassing. De grijper voldoet aan de vereisten van EN ISO 10218-1/-2 en ISO/TS 15066 en zorgt voor een veilige interactie tussen mens en robot. De complete regel- en vermogenselektronica is in de grijper ingebouwd en neemt dus geen ruimte in beslag in de schakelkast. Zowel de interface als de dimensies en interferentieradii zijn door SCHUNK individueel aangepast aan de toepassing. In aanvulling op deze toepassingsspecifieke Co-act-grijpers biedt SCHUNK ook een standaard­grijperassortiment voor collaboratieve toe­pas­singen, zoals de DGUV-gecertificeerde grijper voor kleine componenten Co-act
EGP-C van SCHUNK en weldra ook de grijper met lange slag Co-act EGL-C van SCHUNK, die ook voor collaboratieve toepassingen zal worden gecertificeerd. De laatste zal de eerste grijper zijn die een grijpkracht van maar liefst 450 N in HRC-toepassingen ter beschikking heeft.

De toepassing kan in geen tijd worden geprogrammeerd en aangepast aan nieuwe werkomgevingen.
(Beeld: Nico Herzog)

 

Intuïtieve robotprogrammering

De handling van de cobot maakt de programmering van nieuwe posities voor het plaatsen eenvoudig en intuïtief. Bij ongeplande onderbrekingen herinnert de KUKA robot elke uitgevoerde beweging of activiteit en kan de robot ad-hoc het werk hervatten zonder herprogrammering. Omdat de oplossing heel eenvoudig kan worden geïmplementeerd zowel aan de sensor als aan de robot, en er weinig training nodig is hiervoor, is het geschikt voor talrijke toepassingen en gebruikersgroepen. Uitgebreide kennis van robotica en beeldverwerking is niet vereist. Hierdoor wordt ook de integratiewerklast tot een minimum beperkt. Indien vereist kan het camerasysteem worden uitgebreid om extra projectoren en modules voor neuronaal leren toe te voegen. Het systeem kan in stationaire of mobiele modus worden bediend op de cobot, waardoor zelfs flexibele grijpscensario’s op mobiele platforms mogelijk worden.   

"*" geeft vereiste velden aan

Stuur ons een bericht

Dit veld is bedoeld voor validatiedoeleinden en moet niet worden gewijzigd.

Wij gebruiken cookies. Daarmee analyseren we het gebruik van de website en verbeteren we het gebruiksgemak.

Details

Kunnen we je helpen met zoeken?