Privacy concerns can potentially make camera-based object classification unsuitable for robot navigation. To address this problem, we propose a novel object classification system using only a 2D-LiDAR sensor on mobile robots. The proposed system enables semantic understanding of the environment by applying the YOLOv8n model to classify objects such as tables, chairs, cupboards, walls, and door frames using only data captured by a 2D-LiDAR sensor. The experimental results show that the resulting YOLOv8n model achieved an accuracy of 83.7% in real-time classification running on Raspberry Pi 5, despite having a lower accuracy when classifying door-frames and walls. This validates our proposed approach as a privacy-friendly alternative to camera-based methods and illustrates that it can run on small computers onboard mobile robots.
DOCUMENT
Agriculture and horticulture are essential for ensuring safe food to the growing global population, but they also contribute significantly to climate change and biodiversity loss due to the extensive use of chemicals. Integrated pest management is currently employed to monitor and control pest populations, but it relies on labor-intensive methods with low accuracy. Automating crop monitoring using aerial robotics, such as flapping-wing drones, presents a viable solution. This study explores the application of deep learning algorithms, You Only Look Once (YOLO) and Faster region-based convolutional neural network regions with convolutional neural networks (R-CNN), for pest and disease detection in greenhouse environments. The research involved collecting and annotating a diverse dataset of images and videos of common pests and diseases affecting tomatoes, bell peppers, and cucumbers cultivated in Dutch greenhouses. Data augmentation and image resizing techniques were applied to enhance the dataset. The study compared the performance of YOLO and Faster R-CNN, with YOLO demonstrating superior performance. Testing on data acquired by flapping-wing drones showed that YOLO could detect powdery mildew with accuracy ranging from 0.29 to 0.61 despite the shaking movement induced by the actuation system of the drone’s flapping wings.
DOCUMENT
The paper introduced an automatic score detection model using object detection techniques. The performance of sevenmodels belonging to two different architectural setups was compared. Models like YOLOv8n, YOLOv8s, YOLOv8m, RetinaNet-50, and RetinaNet-101 are single-shot detectors, while Faster RCNN-50 and Faster RCNN-101 belong to the two-shot detectors category. The dataset was manually captured from the shooting range and expanded by generating more versatile data using Python code. Before the dataset was trained to develop models, it was resized (640x640) and augmented using Roboflow API. The trained models were then assessed on the test dataset, and their performance was compared using matrices like mAP50, mAP50-90, precision, and recall. The results showed that YOLOv8 models can detect multiple objects with good confidence scores.
DOCUMENT
Vogels verspreiden zaden, bestuiven planten en ruimen de natuur op; ze zijn onmisbaar voor een gezond ecosysteem. Van groot maatschappelijk belang is het beschermen van bedreigde dieren; biodiversiteit zorgt voor een gezond klimaat in Nederland. Voor de bescherming van vogels worden nesten gedetecteerd en geregistreerd. Boeren worden vervolgens geïnformeerd over de aanwezigheid van nesten op hun land zodat ze de nesten niet vernietigen tijdens hun agrarische werkzaamheden. Boeren worden in Nederland gecompenseerd voor de bescherming van nesten waardoor economische belangen samenkomen met het behoud van de natuur. In dit project wordt met behulp van technologische innovatie de samenwerking tussen boeren en natuur- en vogelbescherming verstevigd: drones worden gecombineerd met artificiële intelligentie om in samenwerking met vrijwilligers de monitoring van nesten uit te voeren. Dit helpt de Bond Friese VogelWachten (BFVW) om met het huidige aantal vogelwachters meer nesten te kunnen opsporen, de natuur doordat meer detectie leidt tot hogere broedsucces van vogels, en de boer kan met de drone meer financiële compensatie bemachtigen. Het consortium bestaat uit BFVW, NHL Stenden Lectoraat Computer Vision & Data Science en het drone bedrijf Aeroscan, die gezamenlijk de technische haarbaarheid willen onderzoeken om de business-case te ondersteunen. Met deze technologie kan de BFVW efficiënter en vooral effectiever nesten in kaart brengen. In de toekomst worden de resultaten van dit project breder ingezet door dit consortium. Binnen natuurbehoud en biodiversiteit zijn er veel andere uitdagingen waarvoor de, in dit project ontwikkelde, kennis ingezet kan worden.
In dit project willen we onderzoeken of we een low-cost robot, die bedoeld is om op afstand bestuurd te worden, kunnen aanpassen om autonome omgevings-inspectie uit te voeren. Een kleine en goedkope robot is uitermate geschikt voor deze toepassing, zou overal gebruikt kunnen worden en makkelijk meegenomen kunnen worden. Ook zou het met betaalbare robots mogelijk zijn met meerdere robots om sneller een grote locatie te scannen. Een uitdaging voor dit project is dat de bestaande low-cost robot geen processing mogelijkheid heeft om de benodigde sensordata te verwerken en bijbehorende algoritmes op het platform zelf uit te voeren. Hiervoor willen we alle sensordata uit de robot uitlezen en deze draadloos via 5G naar een server sturen. Dit zou het mogelijk maken om b.v. objectherkenningstoepassingen, die normaal gesproken op een robot plaatsvinden, op afstand te doen en een robot van op afstand aan te sturen. We zullen dan ook naar verschillende Artificial Intelligence technieken moeten kijken om de (beperkte) ontvangen sensor-data te analyseren en te interpreteren, om de robot van feedback te voorzien, waarbij dit moet allemaal in Real-Time moet gebeuren. Een additionele uitdaging zal zijn hoe de robot zich met een beperkte set van sensoren kan lokaliseren in een (on)bekende omgeving. Het samenwerkingsverband bevat alle partijen: een MKB onderneming die zijn product in de markt wil zetten (SITA Robotics), een technologie partner (TMC) en een onderzoekspartner (Fontys) die nodig zijn om tot vernieuwende oplossingen te komen. Elk van de partners heeft zijn eigen expertise en behoeften in dit project, die als een puzzelstuk in elkaar vallen. De vraag die we gezamenlijk in dit project proberen te beantwoorden is dan ook: Kunnen we de bestaande low-cost robot, die bestemd is voor afstand-bestuurbare verkenning, gebruiken voor de autonome inspectie zonder het systeem zelf substantieel te modificeren?