Inżynierowie z krakowskiego Centrum Technicznego Delphi tworzą narzędzia programistyczne wspomagające i przyspieszające prace m.in. przy analizie nagrań wideo z jazd testowych
Rozwój jazdy autonomicznej zmienia krajobraz technologii transportu w sposób tak dynamiczny, że jest porównywany do przełomowych zmian na Dzikim Zachodzie.
Można przywołać inną analogię, ale jedna rzecz nie podlega dyskusji: możliwości w zakresie jazdy autonomicznej są obecnie bardzo duże, nawet na zatłoczonym obszarze. Wiele firm wybiera różne drogi i sposoby podejścia do stworzenia pierwszego zautomatyzowanego systemu kierowania pojazdem, gotowego do masowej produkcji. W międzyczasie pisane są zasady, a w miarę upływu czasu koncepcje technologiczne stają się rzeczywistością. Wniosek: w wyścigu do stworzenia całkowicie autonomicznego pojazdu nie ma żadnych reguł.
Niemniej jednak platforma jazdy zautomatyzowanej CSLP (ang. Centralized Sensing Localization and Planning) firmy Delphi oparta jest na z góry określonych, uogólnionych zasadach dotyczących podstawowych operacji i wykorzystuje sztuczną inteligencję do znajdowania optymalnej drogi. Oznacza to, że instrukcje zostały zakodowane w algorytmie lub zestawie zasad, według których działa samochód. Dzięki temu powstał pojazd będący w stanie podejmować decyzje przy wykorzystaniu sztucznej inteligencji.
Nie ma reguły na każdą sytuację, przynajmniej na dzień dzisiejszy, ponieważ testy nie zostały jeszcze zakończone. Z tego również powodu floty autonomicznych pojazdów są rozrzucone po całym świecie w celu zbierania danych. Dane te służą do katalogowania niezliczonych ilości możliwych sytuacji, jakie może napotkać pojazd – i dalej, w jaki sposób powinien on bezpiecznie reagować.
Sposób reakcji pojazdu na daną sytuację zależy od tego, co zobaczy i usłyszy za pośrednictwem sensorów. Istnieją ich trzy typy: radar, czujnik wizyjny (kamery) oraz LiDAR. Niektóre firmy wykorzystują tylko jeden z nich, jednak platforma CSLP od Delphi bazuje na wszystkich.
Dzięki połączeniu tych czujników system jazdy autonomicznej firmy Delphi zyskuje maksymalną pewność co do otoczenia pojazdu. Dlaczego warto łączyć wspomniane technologie? Ponieważ każda z nich ma swoje zalety:
- radar nie jest zależny od warunków pogodowych,
- LiDAR dostarcza bardzo dokładnych informacji o zasięgu i odległości,
- czujnik wizyjny zapewnia precyzję w kwestii klasyfikacji obiektów.
Łącząc te elementy, system może generować kompletny obraz tego, co znajduje się wokół pojazdu, zapewniając jednocześnie dodatkowe bezpieczeństwo i pewność działań.
Sztuczna inteligencja wykorzystywana jest głównie w zakresie wizji, podczas gdy uczenie maszynowe (ang. machine learning) służy do poprawy klasyfikacji i rozpoznawania obiektów. Czym jest uczenie maszynowe? Koncepcja ta zakłada, że komputer uczy się sam – bez zaprogramowanych precyzyjnych instrukcji określających sposób jego reakcji.
W tym celu algorytmy wymagają „przeszkolenia” w zakresie rozpoznawania otoczenia pojazdu. Uczenie maszynowe bazuje na czymś, co określa się jako „sieć neuronową” – nazwaną tak, ponieważ została zaprojektowana, by zachowywać się jak mózg. Funkcjonuje ona na pokładzie samochodu i klasyfikuje obiekty w czasie rzeczywistym, dlatego pojazd może stosować się do określonych zasad. Jest to bardzo skomplikowany proces, więc hybrydowe podejście, które łączy sztuczną inteligencję z uczeniem maszynowym, pomaga autonomicznym pojazdom „jeździć” w sposób zbliżony do kierowania pojazdu przez człowieka. W niektórych przypadkach, takich jak czerwone światło czy zatrzymanie innego pojazdu na drodze, ważne jest, aby nasz pojazd również się zatrzymał. Natomiast w innych sytuacjach, takich jak plastikowa torba przelatująca nad ulicą, lepszym wyjściem jest uznanie obiektu za niestanowiący przeszkody i stwierdzenie, że dalsza jazda jest bezpieczna.
W przypadku scenariuszy, których zestaw zasad (jeszcze) nie obejmuje, sztuczna inteligencja podejmuje decyzje poprzez połączenie danych pochodzących z czujników wizyjnych.
– Sieć neuronowa wie, co robić, wyłącznie jeżeli została przeszkolona w tym zakresie – wyjaśnia Glen De Vos, dyrektor ds. technologii Delphi. – I nie każdy scenariusz, jaki napotka pojazd, może zostać uwzględniony. Nie można przewidzieć, jak sieć neuronowa zachowa się w sytuacjach, z jakimi wcześniej nie miała do czynienia. W przypadkach gdy pojazd czegoś nie rozpoznaje, sieć neuronowa zaleca bezpieczne zatrzymanie się. Przy zastosowaniu kombinacji technologii neuronowych i sztucznej inteligencji możemy poprawnie zareagować w każdej sytuacji. Inżynierowie z krakowskiego Centrum Technicznego Delphi, korzystając ze sztucznej inteligencji, tworzą narzędzia programistyczne wspomagające i przyspieszające prace wewnątrz firmy przy m.in. analizie nagrań wideo z jazd testowych. Przyczynia się to nie tylko do optymalizacji czasu i zasobów potrzebnych w każdym projekcie, ale również do poszerzania wiedzy i umiejętności naszego zespołu – budując doświadczenie, które będzie wykorzystywane w kolejnych projektach.
Komentarze (0)