robotyka

Jak roboty postrzegają świat?

Roboty nie mają oczu, mają za to zestaw czujników i kamer, dzięki którym możliwe jest zorientowanie się robota w przestrzeni. Jednak czy maszyna jest w stanie w porę dostrzec zmianę sytuacji i struktury ruchu?

Orientowanie się robota w przestrzeni i strukturze ruchu

Robotyka jest ściśle powiązana z uczeniem maszynowym oraz sztuczną inteligencją. Dzięki wykorzystaniu tych mechanizmów możliwe jest nie tylko poruszanie się maszyn oraz wykonywanie narzuconych im zadań, ale również nauka urządzenia o otaczającym go świecie.

Systemy robotyczne, które miałyby lub już poruszają się po ulicach, np. dostarczając jedzenie czy przemieszczają się po obiektach handlowych, muszą być w stanie odróżniać tzw. głębię od bliskości. Dla nas, ludzi, w zdecydowanej większości sytuacji, łatwym jest oszacowanie w jakiej odległości znajduje się przedmiot. Jednak roboty nie są zdolne do takiego odbierania otaczającego go środowiska, jak ludzie. Robot poruszający się między ludźmi, samochodami czy innymi maszynami, musi być w stanie odpowiednio zareagować w zmiennej sytuacji i zorientować się w strukturze ruchu.

Połączenie systemów sieci neuronowych

Naukowcy z Uniwersytetu w Toronto postanowili przyjrzeć się problemom maszyn, wynikającym ze zmiennej struktury ruchu. Udało im się odnaleźć i opracować metodę, która umożliwi poprawę wizualizacji i orientację przestrzenną robotów stosując dwie różne sieci neuronowe.

„Ostatecznie staramy się rozwijać świadomość sytuacyjną w bardzo dynamicznych środowiskach, w których działają ludzie, niezależnie od tego, czy jest to zatłoczony korytarz szpitalny, ruchliwy plac publiczny czy ulica pełna ruchu i pieszych.”

Jonathan Kelly, adiunkt w Instytucie Badań Kosmicznych Uniwersytetu w Toronto

Aby pokonanie problemu związanego ze strukturą ruchu było realne, należałoby połączyć aktualne systemy w taki sposób, by na siebie wpływały. Obecnie, poruszający się w przestrzeni robot po pierwsze wykorzystuje systemy, które pozwalają mu oszacować głębokość, czyli odległość od danego przedmiotu, a po drugie opisać ruch robota w 3D, co znane jest jako egomotion.

Dlatego też naukowcy postanowili podjąć próbę stworzenia połączenia pomiędzy tymi dwoma sieciami neuronowymi. Opracowany system umożliwił przewidywanie egomotion przez maszynę, które zostało funkcją głębokości.

Wcześniej zespołowi naukowców udało się stworzyć system, który umożliwiał nawigowanie wózka inwalidzkiego podczas przejeżdżania przez drzwi.