RTK-GNSS (Real Time Kinematic - Global Navigation Satellite System) is based on a ‘rover’ GNSS antenna that receives error correction information from a ‘base’ GNSS antenna. While the rover can be placed on a robot to move around, the base station has the additional ‘knowledge’ of being stationary. Therefor it is able to recognize any measured motion, caused by atmospheric disturbances to the GNSS signals coming from satellites, as errors. Assuming the rover antenna is relatively close to the base station, comparable atmospheric effects can be assumed so the same error corrections can be applied to the rover antenna. This way, the relative position of the rover antenna with respect to the base station can be determined with sub-meter or even sub-decimeter accuracy.
MULTIFILE
KIP-project van onderzoeksprogramma Maps4Society van STW. Uit de inleiding: Dit onderzoek beschrijft "manieren, waarop deformatiemetingen worden uitgevoerd, wat deformatiemetingen, zijn en hoe ze uitgevoerd moeten worden" "Geodetische deformatieanalyse is een onderbelicht vakgebied. Slechts een beperkt aantal mensen in Nederland is op dit vakgebied deskundig, terwijl het maatschappelijk belang groot is. De financiële en maatschappelijke consequenties van de conclusies die uit de deformatieanalyses volgen kunnen groot zijn."
MULTIFILE
While modern construction vehicles often come equipped with proprietary telematic systems, a substantial portion of the global construction fleet consists of older machines that lack any form of digital monitoring. The exact share is unknown, but in many companies, legacy equipment still plays a critical role in daily operations. This gap limits the ability to track performance, optimize usage, or assess environmental impact. In response, this study presents a proof of concept for a low-cost, low-maintenance, plug-and-play solution designed to monitor the operational behaviour of such vehicles. The system combines a modular hardware unit with integrated Global Navigation Satellite System (GNSS) and accelerometers to capture data such as location, motion patterns, activity cycles, and engine RPM. All processing is performed locally on an edge device, eliminating the need for centralized computation or cloud connectivity. The goal is to provide a scalable and accessible tool for construction companies to better understand and manage their fleets, with future potential to link activity data to fuel consumption and emissions.
DOCUMENT
Traditioneel worden robots voornamelijk ingezet in gestructureerde, afgeschermde en voorspelbare omgevingen zoals fabrieken en magazijnen. Door technologische ontwikkelingen kunnen robots ook steeds beter in ongestructureerde en complexere omgevingen opereren, soms zelfs tussen mensen en dieren. Inspectierobots, verkenningsrobots, voederrobots of fruitplukrobots doen steeds vaker repeterend, vermoeiend of gevaarlijk werk. Ze kunnen bijvoorbeeld dag en nacht inspecties uitvoeren of onvermoeibaar op de akker werken. Ook kunnen ze worden ingezet voor zoek- en reddingsoperaties in gevaarlijke gebieden, bijvoorbeeld in conflictsituaties of na een ramp. Ondanks dat er afgelopen jaren grote stappen zijn gezet op het gebied van sensoren en kunstmatige intelligentie, blijft het een uitdaging om een robot volledig autonoom, dus zonder menselijke operator, te laten werken in een complexe omgeving. Eén uitdaging zit in het slim combineren van de verschillende sensoren om een goed beeld van de omgeving en van zijn eigen positie in die omgeving te creëren. Als dit niet goed lukt, dan moet de robot alsnog worden geholpen door een menselijke operator. Een robot gebruikt sensoren om te bepalen waar hij is. Huidige sensoren hebben echter tekortkomingen en maken meetfouten. Sensorfusie is het combineren van data uit verschillende sensoren om daarmee een betere schatting te doen. Het consortium heeft ervaring met het ontwikkelen van autonome robots en heeft daarbij geconstateerd dat het ontwikkelen van sensorfusie niet alleen essentieel is, maar dat het tevens uitdagend is om gestelde doelen te halen. De wens is daarom om te onderzoeken hoe we sensorfusie naar een hoger niveau kunnen brengen. In dit project analyseren en optimaliseren we de meest gebruikte methode voor het fuseren van encoders, IMUs, kompas en GNSS en vergelijken de huidige aanpak met recent ontwikkelde methodes. Met deze kennis kunnen Nederlandse technologiebedrijven voorop blijven lopen bij de ontwikkeling van autonome robots voor agrifood, inspectie, defensie en security-toepassingen.
In diverse sectoren bestaat om uiteenlopende redenen een groeiende behoefte aan automatisering. Personeelstekort leidt tot uitdagingen in de logistiek en agrifood. Er zijn onvoldoende chauffeurs om alle voertuigen te besturen en verduurzaming van de voedselvoorziening vereist lichtgewicht, slimme, selectieve oplossingen om voedsel te produceren zonder ongewenste bestrijdingsmiddelen op een blijvend vruchtbare bodem. Deze onbalans in het aantal benodigde mobiele machines en beschikbare mensen om die te bedienen vraagt om een toenemende machineautomatisering, om de productiviteit per medewerker te maximaliseren. Dit leidt momenteel tot een vlucht in mobiele robotica oplossingen, met de agrifood sector als koploper vanwege de lage rijsnelheden, gestructureerde trajectgeometrieën en tolerante regelgeving. De kern van mobiele robotica is lokalisatie: het goed kunnen bepalen van de eigen positie, zodat de robot vanuit die positie de te volgen route kan bepalen en deze vervolgens met de benodigde nauwkeurigheid kan volgen op basis van continue updates van de positie. GPS(/GNSS) systemen met nauwkeurigheid van enkele centimeters zijn de laatste jaren steeds betaalbaarder geworden en vormen een belangrijke enabler voor mobiele robot toepassingen. Op akkers maken boeren al jaren gebruik van deze technologie, waarmee automatische stuursystemen tractoren met centimeternauwkeurigheid over de gewasrijen manoeuvreren. Ze zijn echter niet 100% betrouwbaar. De effectieve nauwkeurigheid is zeer gevoelig voor hogere obstakels, zoals gebouwen en masten. Daarom blijft de mens nodig voor correcties, of is er op kritische locaties een andere lokalisatiemethode nodig om nauwkeurige positiebepaling te kunnen garanderen. Locate gaat voor akkertoepassingen op zoek naar de meest geschikte additionele technologie en integreert deze in een praktische pilot voor een mobiele agrobot die met hoge resolutie ziektes kan detecteren in gewassen. Locate vormt het startpunt voor breder onderzoek naar multi-modale, robuuste, kostenefficiënte lokalisatie in de sectoren automotive, logistiek en agrifood met als doel een slagkrachtiger NL bedrijfsleven en verrijking van de onderzoeks- en onderwijsomgeving.
Automation is a key enabler for the required productivity improvement in the agrifood sector. After years of GPS-steering systems in tractors, mobile robots start to enter the market. Localization is one of the core functions for these robots to operate properly on fields and in orchards. GNSS (Global Navigation Satellite System) solutions like GPS provide cm-precision performance in open sky, but buildings, poles and biomaterial may reduce system performance. On top, certain areas do not provide a dependable grid communication link for the necessary GPS corrections and geopolitics lead to jamming activities. Other means for localization are required for robust operation. VSLAM (Visual Simultaneous Localization And Mapping) is a complex software approach that imitates the way we as humans learn to find our ways in unknown environments. VSLAM technology uses camera input to detect features in the environment, position itself in that 3D environment while concurrently creating a map that is stored and compared for future encounters, allowing the robot to recognize known environments and continue building a complete, consistent map of the environment covered by its movement. The technology also allows continuous updating of the map in environments that evolve over time, which is a specific advantage for agrifood use cases with growing crops and trees. The technology is however relatively new, as required computational power only recently became available in tolerable cost range and it is not well-explored for industrialized applications in fields and orchards. Orientate investigates the merits of open-source SLAM algorithms on fields - with Pixelfarming Robotics and RapAgra - and in an orchard - with Hillbird - preceded by simulations and initial application on a HAN test vehicle driving in different terrains. The project learnings will be captured in educational material elaborating on VSLAM technology and its application potential in agrifood.