Go to content
SV På svenska

Semantic Mapping and Visual Navigation for Smart Robots

Reference number
RIT15-0038
Start and end dates
160701-221231
Amount granted
29 712 610 SEK
Administrative organization
Chalmers University of Technology
Research area
Information, Communication and Systems Technology

Summary

Why is it that today’s autonomous systems for visual inference tasks are often restricted to a narrow set of scene types and controlled lab settings? Examining the best performing perceptual systems reveals that each inference task is solved with a specialized methodology. For instance, object recognition and 3D scene reconstruction, despite being strongly connected problems, are treated independently and an integrated theory is lacking. We believe that in order to reach further, it is necessary to develop smart systems that are capable of integrating the different aspects of vision in a collaborative manner. We gather expertise from computer vision, machine learning, automatic control and optimization with the ambitious goal of establishing such an integrated framework. The research is structured into four work packages: 1) scene modelling, 2) visual recognition, 3) visual navigation and 4) system integration to achieve a perceptual robotic system for exploration and learning in unknown environments. As a demonstrator, we will construct an autonomous system for visual inspection of a supermarket using small-scale, low-cost quadcopters. The system goes well beyond the current state-of-the-art and will provide a complete solution for semantic mapping and visual navigation. The basic research outcomes are relevant to a wide range of industrial applications including self-driving cars, unmanned surface vehicles, street-view modelling and flexible inspection in general.

Popular science description

Forskningen inom robotik har traditionellt handlat om att utveckla robotar och andra mekaniska system för högre noggrannhet, snabbhet och styrka, men har alltmer kommit att vidgas till kombinationen av mekatronik och kognitiva system som genom återkoppling och lärande kan interagera med sin omgivning och utföra uppgifter autonomt eller i samarbete med människor. Datorseende handlar om att utveckla automatiska system för att analysera och förstå digitala bilder. Maskininlärning handlar om att utveckla algoritmer som lär sig från historiska data, så att man gör bättre beslut i framtiden. Under de senaste åren har det skett en dramatisk utveckling inom alla dessa tre områden. Trots det fungerar dagens bästa system bara inom ett snävt område av visuella miljöer eller i labbmiljö. Nuvarande system löser ofta bara ett delproblem med en metod. Till exempel behandlas objektigenkänning och 3D-modellering oberoende av varandra, trots att problemen är starkt sammankopplade. För att skapa robusta system för robotik och perception, behövs ett nytt integrerat synsätt där många lösningar kombineras, ett så kallat system av system. I det här projektet arbetar vi med forskning som kombinerar olika delsystem inom maskininlärning, datorseende och robotik. Målet är att utveckla smarta system som kan integrera dessa olika aspekter. Inom projektet har vi experter från dessa olika, men närbesläktade forskningsområden. Som demonstratörsprojekt, kommer vi att bygga ett autonomt system för visuell kartering och inspektion av en stormarknad med hjälp av småskaliga helikoptrar. Systemet går väl utöver den nuvarande forskningsfronten och kommer att ge en komplett lösning för semantisk kartläggning och visuell navigering. De grundläggande forskningsresultat är relevanta inom ett brett spektrum av industriella tillämpningar inklusive självgående bilar, obemannade markfordon, scenmodellering och flexibel avsyning i allmänhet. Området är strategiskt viktigt för företag som traditionellt varit viktiga för Sverige, t ex Volvo, Saab, Saab-Kockums, men också för nya och relativt unga företag, som växer inom detta spännade område.