Project

RILey: Remote Inspection with Low-cost robots

Overzicht

Projectstatus
Afgerond
Start datum
Eind datum
Regio

Doel

In dit project was de hoofdvraag of we een bestaande low-cost SITA robot, die bestemd is voor
afstand-bestuurbare verkenning, kunnen gebruiken voor de autonome inspectie zonder het systeem
zelf substantieel te modificeren? Om deze vraag te beantwoorden hebben we diverse onderzoeken
gedaan, prototypes gebouwd en hier experimenten mee gedaan.
Een uitdaging voor dit project was dat de bestaande low-cost robot geen, of niet voldoende lokale
processing mogelijkheid heeft om de benodigde sensordata te verwerken en bijbehorende algoritmes
op het platform zelf uit te voeren. Hiervoor hebben we sensordata uit de robot uitgelezen en deze
draadloos naar een server gestuurd. Hiermee hebben we het mogelijk gemaakt om b.v.
objectherkenningstoepassingen op afstand te doen en een robot van op afstand aan te sturen. We
hebben dan ook naar verschillende Artificial Intelligence technieken moeten kijken om de ontvangen
sensor-data te analyseren en te interpreteren.
Een additionele uitdaging was hoe de robot zich met een beperkte set van sensoren kan lokaliseren
en dus ook autonoom kan navigeren in een (on)bekende omgeving. Hiervoor hebben we gekeken
hoe additionele sensoren op de robot toegevoegde waarde zou kunnen hebben voor hun platform.
Ook hebben we gekeken hoeveel lokale processing op de robot hiervoor nodig zou zijn om deze
additionele sensordata en aanverwante algoritmes te verwerken.
Afgaande op de gespecificeerde use-case en de exploratieve aard van het onderzoek is in overleg
met de klant ervoor gekozen om een nieuw robotconcept op te zetten in plaats van huidige robots te
modificeren. Hiervoor is een nieuw robotdesign gemaakt (Figuur 1) gebaseerd op hun huidige
ontwerp, echter met wat meer lokale processingsmogelijkheden en additionele sensoren.
Voor de lokalisatie en het verwerken van sensordata is ervoor gekozen om het Robot Operating
System (ROS) te gebruiken, hiermee is het makkelijker om een autonome robot te besturen. Hiervoor
is naast de echte robot ook een simulatiemodel en simulatie-omgeving oftewel een digital twin
gemaakt, die zich hetzelfde gedraagt als de echte robot (Figuur 2) en waarbij het robot gedrag
makkelijk getest kan worden. De sensordata wordt op de robot verzameld maar op een externe
computer verwerkt, hierdoor wordt de lokale processing tot een minimum beperkt.
Voor de use case was het ook noodzakelijk dat de robot objecten en mensen kan herkennen, dit is
geïmplementeerd met het Yolo algoritme, welke al verschillende van deze basisobjecten kan
herkennen. Aanvullend is dit algoritme getraind om deuren in diverse situaties te herkennen (Figuur
3).
Uiteindelijk zijn alle componenten samengevoegd en is het systeem op locatie getest (Figuur 4),
waarbij de robot door de omgeving rijdt en personen en objecten in de omgeving herkent. Tevens
wordt er een kaart van de omgeving opgebouwd zodat kan worden aangegeven waar iets/iemand is
aangetroffen.
Conclusie is dat een deel van de autonome detectie en besturing kan worden afgevangen zonder
substantiële wijzigingen aan het originele platform indien de sensordata beschikbaar is, echter voor
autonoom robot gedrag zal het platform veel baat hebben aan additionele sensoren waarbij
additionele processing wel wenselijk zal zijn.


Beschrijving

In dit project willen we onderzoeken of we een low-cost robot, die bedoeld is om op afstand bestuurd te worden, kunnen aanpassen om autonome omgevings-inspectie uit te voeren.
Een kleine en goedkope robot is uitermate geschikt voor deze toepassing, zou overal gebruikt kunnen worden en makkelijk meegenomen kunnen worden. Ook zou het met betaalbare robots mogelijk zijn met meerdere robots om sneller een grote locatie te scannen.

Een uitdaging voor dit project is dat de bestaande low-cost robot geen processing mogelijkheid heeft om de benodigde sensordata te verwerken en bijbehorende algoritmes op het platform zelf uit te voeren. Hiervoor willen we alle sensordata uit de robot uitlezen en deze draadloos via 5G naar een server sturen. Dit zou het mogelijk maken om b.v. objectherkenningstoepassingen, die normaal gesproken op een robot plaatsvinden, op afstand te doen en een robot van op afstand aan te sturen. We zullen dan ook naar verschillende Artificial Intelligence technieken moeten kijken om de (beperkte) ontvangen sensor-data te analyseren en te interpreteren, om de robot van feedback te voorzien, waarbij dit moet allemaal in Real-Time moet gebeuren. Een additionele uitdaging zal zijn hoe de robot zich met een beperkte set van sensoren kan lokaliseren in een (on)bekende omgeving.

Het samenwerkingsverband bevat alle partijen: een MKB onderneming die zijn product in de markt wil zetten (SITA Robotics), een technologie partner (TMC) en een onderzoekspartner (Fontys) die nodig zijn om tot vernieuwende oplossingen te komen.
Elk van de partners heeft zijn eigen expertise en behoeften in dit project, die als een puzzelstuk in elkaar vallen. De vraag die we gezamenlijk in dit project proberen te beantwoorden is dan ook:

Kunnen we de bestaande low-cost robot, die bestemd is voor afstand-bestuurbare verkenning, gebruiken voor de autonome inspectie zonder het systeem zelf substantieel te modificeren?



Reacties voor dit item zijn uitgeschakeld
© 2024 SURF