Badania nad pojazdami autonomicznymi – zastosowanie przetwarzania obrazu
Inteligentne roboty otrzymują coraz więcej zdolności, które mógł opanować człowiek dzięki swoim zmysłom. Jednym z nich jest wzrok umożliwiający identyfikację przeszkód oraz możliwość określenia swojego położenia. Badania nad pojazdami autonomicznymi wpłynęły na dynamiczny rozwój robotów również w sferze zaawansowanego zastosowania przetwarzania obrazu. Co można zyskać dzięki skupieniu się na aspektach związanych z wizją? Odpowiadamy.
Spis treści:
- Rozwój pojazdów autonomicznych w obszarze przetwarzania obrazu
- Budowa samochodu QCar dostosowana do zadań wizyjnych
- Implementacja własnych algorytmów do QCar
- Cyfrowa wersja fizycznych obiektów Quanser
- Pojazdy autonomiczne w ofercie Edu4Industry
Rozwój pojazdów autonomicznych w obszarze przetwarzania obrazu
Jednym z trendów, który można zaobserwować zarówno u producentów robotów, jak i w świecie nauki, jest skupienie się na wizji oraz przetwarzaniu obrazu. Pojazdy autonomiczne zostały wyposażone w potężne oczy wspierające nieustannie operatora. Dzięki nim komputer otrzymuje wszystkie niezbędne informacje do sterowania robotem. Naukowcy przewidują jednak, że w przyszłości jedną parę oczu zastąpi kilka, a tym samym sprzęt zyska jeszcze więcej możliwości. Co to oznacza w praktyce? Pojazdy autonomiczne zostaną wyposażone nawet w tysiące kamer rozmieszczonych wokół całej konstrukcji.
Efektem tego dynamicznego rozwoju będzie większa – aż w końcu pełna – świadomość otoczenia. Eksperci z firmy Quanser skupiają się na badaniach nad samochodami autonomicznymi pod kątem wizji. QCar to jedno z urządzeń, które umożliwia wykorzystanie w praktyce znanych już funkcjonalności pojazdów inteligentnych oraz dalszego rozwoju tej technologii. Producent Quanser zadbał o to, aby urządzenie było zoptymalizowane w każdym szczególe. Dzięki temu otrzymujesz najwyższej jakości sprzęt i oprogramowanie. Jak badania nad pojazdami autonomicznymi pozwoliły rozwinąć QCar?
Budowa samochodu QCar dostosowana do zadań wizyjnych
Jednym z najważniejszych elementów pojazdu autonomicznego QCar są oczy, czyli kamery dostosowane do wyzwań stawianych nowej technologii. Urządzenie składa się z kilku ważnych elementów, wśród których można wymienić:
- przednią kamerę Intel RealSense RGBD odpowiedzialna za dostarczenie obrazu wysokiej rozdzielczości i wysokiej liczbie klatek na sekundę,
- cztery kamery wokół pojazdu bezpośrednio podłączone do procesora graficznego platformy Nvidia, które zapewniają pełny widok 360 stopni.
Dzięki temu pojazd autonomiczny zyskuje możliwość zastosowania funkcji “stop and go”. Przykładem może być sytuacja, kiedy robot porusza się po drodze i dzięki głębi oraz RGB może zidentyfikować znak stopu. Dostępne wyposażenie pozwala na zidentyfikowanie, w jakiej odległości znajduje się od miejsca obowiązkowego zatrzymania. Obraz uchwycony przez kamery możesz ustawić obok siebie w formie kafelków, zyskując widok 360 stopni w postaci szerokiego paska wideo.
Implementacja własnych algorytmów do QCar
Zwróć uwagę, że istnieje możliwość zaimplementowania własnego algorytmu do pojazdu autonomicznego. Przykładem może być wymuszenie poruszania się wyznaczonym pasem ruchu i przewidzenie, dokąd zmierza droga, kiedy się kończy. W efekcie istnieje możliwość zajrzenia do struktury aplikacji, iterowania algorytmów, ich zmiany oraz implementowania własnych rozwiązań. QCar wykorzystuje techniki projektowania oparte na modelach. Ponadto Simulink ułatwia szybkie prototypownie sterowania.
Algorytm utrzymywania pasa ruchu opiera się na blokach przechwytywania obrazu oraz uruchomienie diagramu Simulink w czasie rzeczywistym na sprzęcie rzeczywistym. Pojazd autonomiczny QCar umożliwia przechwytywanie obrazu o wymiarach 640×480. Można go przekształcić z przestrzeni RGB, jaką zapewnia kamera, na HSV. Następnie należy zdefiniować kolor linii, których powinien trzymać się pojazd.
Cyfrowa wersja fizycznych obiektów Quanser
Zwróć uwagę na możliwość implementowania algorytmów na cyfrowych wersjach urządzeń. Jest to możliwe dzięki platformie Quanser Interactive Labs. Producent Quanser zapewnia dostęp do podstawowej wersji QCar w formie wirtualnego systemu QBot2e. Dzięki temu możesz implementować i testować różne rozwiązania bez obaw o ewentualne uszkodzenie obiektu fizycznego. Symulacje odbywają się w czasie rzeczywistym, co pozwala również na szybką reakcję i zmianę zaimplementowanego algorytmu.
Sprawdź również artykuły:
Robot AMR. Czy autonomiczne roboty mobilne staną się standardem?
Digital twin, czyli cyfrowy bliźniak
Pojazdy autonomiczne w ofercie Edu4Industry
Jeżeli chcesz wprowadzić na uczelnie nowoczesne rozwiązania, które pozwolą studentom na implementowanie własnych algorytmów bez obaw o kondycję fizycznych obiektów. Poniżej znajdziesz szczegółowe informacje na temat dostępnych rozwiązań:
- Quanser QLabs QBot2e, czyli narzędzie umożliwiające przeniesienie fizycznego laboratorium dydaktycznego do domu studentów. Sercem systemu jest cyfrowy bliźniak robota mobilnego QBot2e sterowanego za pomocą środowiska Matlab/Simulink.
Sprawdź: Quanser QLabs QBot2e
- Laboratorium Samochodu Autonomicznego QCar, czyli stanowisko dydaktyczno-badawcze umożliwiające przeprowadzenie eksperymentów naukowych dotyczących samochodu autonomicznego.
Sprawdź: Laboratorium Samochodu Autonomicznego QCar
- Laboratorium Pojazdów Autonomicznych, czyli kompletne stanowisko dydaktyczno-badawczego w dziedzinie robotów autonomicznych i współpracujących. W skład urządzenia wchodzą robot latający, jeżdżący, stacja kontrolno-monitorująca, sieć lokalizacji wizyjnej i zabezpieczenia.
Sprawdź: Laboratorium Pojazdów Autonomicznych