©Duke University

Deze robothond verkent dankzij AI-'instincten' zelfstandig onbekend, ruw terrein
Robots moeten het voor zelfstandige navigatie nu vooral hebben van camera's en LiDAR-systemen. Zicht dus, terwijl mensen en dieren meer zintuigen gebruiken om hun weg te vinden. Een nieuwe Amerikaanse ontwikkeling maakt dat wel mogelijk.
Het nadeel van op zicht gebaseerde navigatie-systemen, is dat ze vooral goed werken in voorspelbare gebieden. Zo kunnen zelfrijdende auto's prima op openbare wegen rijden, maar moet je ze niet off-road sturen. Dat geldt ook voor bijvoorbeeld robothonden, wat jammer is want zulke mechanische viervoeters komen goed van pas bij reddingsmissies, zoekacties en bij militaire toepassingen.
Er is nu een flinke stap gezet in de richting van meer zelfstandig navigerende robots, natuurijk met een beetje hulp van AI. Onderzoekers van de Amerikaanse Duke University hebben het unieke WildFusion-framework ontwikkeld, waarmee het zicht van robots wordt aangevuld met de mogelijkheden om te voelen en vibraties waar te nemen.
"WildFusion opent een nieuw hoofdstuk in robotnavigatie en 3D-mapping", zegt Boyuan Chen, assistent-professor aan de Duke University. "Het helpt robots om zelfverzekerder te opereren in ongestructureerde, onvoorspelbare omgevingen zoals bossen, rampzones en off-road terrein."
Zien én voelen
De WildFusion-technologie is gebouwd op een viervoetige robothond. Het systeem bestaat uit een RGB-camera, LiDAR, traagheidssensoren, contactmicrofoons en tactiele sensoren. Net zoals altijd spelen de camera en LiDAR een cruciale rol en leggen ze informatie vast zoals de geometrie van de omgeving, afstand, kleur en andere visuele details. Maar door gebruik te maken van akoestische trillingen en aanraking kan WildFusion verder gaan.
De contactmicrofoons nemen de unieke trillingen op terwijl de robot loopt. Ook worden geluiden opgevangen die kleine verschillen hebben, zoals mensen onbewust luisteren naar hun voetstappe. Tactiele sensoren voelen ondertussen hoeveel kracht op elke voet moet worden uitgeoefend.
AI-instinct
Al die data wordt geïnterpreteerd door een deep learning-model. Dan ontstaat een soort instinct, zoals mensen en dieren dat ook hebben. De robot hoeft dan niet actief over elke stap na te denken. In plaats van de omgeving als afzonderlijke gegevenspunten te bekijken, legt deze methode oppervlakken en kenmerken vast als continue structuren. Dit stelt de robot in staat om intelligentere en instinctieve keuzes te maken over waar hij zich moet verplaatsen, zelfs als zijn gezichtslijn onduidelijk of belemmerd is.
Het systeem is al getest in het Eno River State Park in North Carolina, vlakbij de universiteit. Nu wil het team achter de robot het systeem uitbreiden door extra sensoren toe te voegen, zoals thermische of vochtigheidsdetectoren, om het vermogen van een robot om complexe omgevingen te begrijpen en zich aan te passen verder te verbeteren. De onderzoekers zien voor WildFusion 'enorme potentiële toepassingen', buiten de gebaande bospaden, 'waaronder rampenbestrijding op onvoorspelbare terreinen, inspectie van externe infrastructuur en autonome verkenning'.
Meer robot-nieuws en mis niets met onze Bright-app.