Dlaczego samochodów autonomicznych wciąż nie ma na naszych drogach?
Czy jednak w 2021 roku na drogach nie będzie już autonomicznych samochodów, głównie ze względu na całą nierozwiązaną kwestię bezpieczeństwa? Czy samochody samobieżne są kompletne – czy da się to zrobić?
Zdjęcie: XXI wiek obiecuje samochody autonomiczne, ale czy to się spełni?
Czy pamiętasz czasy, kiedy miały pojawić się samochody autonomiczne? Prawie dziesięć lat temu dział Google zajmujący się pojazdami autonomicznymi (obecnie Waymo) obiecał świat, w którym ludzie będą poruszani się autonomicznymi samochodami-robotami.
Pokazano nam generowane komputerowo prezentacje miast przyszłości, pełne autonomicznych, robotycznych taksówek i abstrakcyjnych luksusowych pojazdów, w których pasażerowie mogli zrelaksować się w całkowicie odchylonych fotelach, oglądając telewizory o wysokiej rozdzielczości.
To nam obiecali. Jak się okazało, mylili się.
Niespełniony potencjał
Kompleks przemysłowy pojazdów autonomicznych doznał poważnych ciosów technologicznych. I bezpieczeństwo w ostatniej dekadzie do tego stopnia, że nawet John Karafczyk, były dyrektor generalny Waimo i jeden z najbardziej zagorzałych zwolenników samochodów autonomicznych, powoli się poddaje…
Cóż, co poszło nie tak?
Odpowiedź jest prosta: społeczeństwo przecenia potencjał nawet najbardziej zaawansowanych technologii. I nie docenia możliwości nawet najmniej przeszkolonych kierowców.
Wbrew temu, co wielu sądzi, prowadzenie pojazdu to złożone i dynamiczne, wielozadaniowe przedsięwzięcie. Utrzymanie prędkości i pozycji pojazdu nie jest łatwym zadaniem, niezależnie od zmian klimatycznych, natężenia ruchu, warunków drogowych. Oraz różne zdolności umysłowe, percepcyjne i motoryczne ludzkiego kierowcy.
Jeśli dodać do tego rosnące trudności w korzystaniu z „inteligentnych”, niezrozumiałych systemów, nie jest zaskakujące, że wielu kierowców rezygnuje z pełnego korzystania z systemów wspomagających.
Nie zapominajmy o licznych próbach samozwańczych wprowadzenia opinii publicznej w błąd, używając nazw takich jak „autopilota” dla mniej wydajnych technologii.
Ludzie akceptują samochody autonomiczne o znacznie wyższych standardach bezpieczeństwa. I interpretuj jednorazowe wypadki jako dowód, że pojazdy te są zbyt niebezpieczne, aby wyjeżdżać na drogi publiczne.
Reakcja opinii publicznej
Od lat naukowcy badający czynnik ludzki w autonomicznej jeździe ostrzegają przed poważnymi błędami w swoich wysiłkach na rzecz samodzielnego prowadzenia pojazdów.
W raportach z wypadków dotyczących pojazdów, które przynajmniej w zasadzie były w pełni zdolne do pokonywania „najprostszych” scenariuszy drogowych, jako możliwą przyczynę wypadków wymieniano ograniczenia konstrukcyjne tych systemów. Ze względu na fałszywe poczucie bezpieczeństwa systemów jazdy typu „autopilot” niektórzy kierowcy mogą mieć poczucie, że mogą uniknąć monitorowania swojego zachowania, co może prowadzić do wypadków, których można uniknąć.
Reakcja ta nastąpiła w wyniku spadku zaufania społecznego i akceptacji pojazdów samobieżnych. Te awarie również nie pomagają celom ich pojazdów.
Nie wstrzymuj oddechu.
Więc, co dalej? Pomimo rosnących wyzwań związanych z pracą fizyczną, jazda komercyjna, w której samochody ciężarowe są bardziej zaawansowane technicznie lub jazda wsadowa, to punkt, w którym autonomiczna jazda może być bardziej zaawansowana, przynajmniej w krótkiej perspektywie.
Jazda komercyjna, w przypadku której ciężarówki są bardziej zaawansowane technicznie, lub jazda wsadowa to obszary, w których można dalej rozwijać autonomiczną jazdę, przynajmniej w perspektywie krótkoterminowej.
W przypadku samochodów autonomicznych następnym razem menadżer pojazdów autonomicznych każe mi się przygotować. Pilnuję, żeby nie wstrzymywać oddechu.
Możliwość skompletowania samochodów autonomicznych
Od lat naukowcy badający czynnik ludzki w autonomicznej jeździe ostrzegają przed poważnymi błędami w swoich wysiłkach na rzecz samodzielnego prowadzenia pojazdów.
Pojazdy zrobotyzowane są używane od dziesięcioleci w elektrowni jądrowej w Fukushimie lub podczas inspekcji podwodnej infrastruktury energetycznej na Morzu Północnym w niebezpiecznych środowiskach. Ostatnio pojazdy samobieżne, od łodzi po wozy do transportu żywności, bezproblemowo trafiły do ośrodków badawczych w prawdziwym świecie, choć zdarzały się w nich bardzo rzadko czkawki.
Obiecane pojawienie się samochodów samobieżnych nie wyszło poza fazę testów. Natomiast podczas jazdy próbnej samochodem samobieżnym Ubera w 2018 r. zginął przez niego pieszy.
Chociaż do takich wypadków dochodzi codziennie, gdy ktoś siedzi za kierownicą, ludzie akceptują samochody autonomiczne o znacznie wyższych standardach bezpieczeństwa i traktują wypadki jednorazowe jako dowód, że pojazdy te pozostały na drodze. Opinia publiczna jest zbyt niepewna co do tłumaczenia ustnego.
Wbrew temu, co wielu sądzi, prowadzenie pojazdu to złożone i dynamiczne, wielozadaniowe przedsięwzięcie.
Planowanie w pełni autonomicznego samochodu, który zawsze podejmuje najbezpieczniejszą decyzję, jest dużym zadaniem technicznym. W przeciwieństwie do innych pojazdów samobieżnych, które zwykle działają w całkowicie kontrolowanych środowiskach. Samochody autonomiczne muszą obsługiwać nieprzerwaną i nieprzewidywalną sieć dróg oraz szybko przetwarzać wiele złożonych zmiennych. Aby zachować bezpieczeństwo.
Zainspirowani wspaniałym kodeksem drogowym, pracujemy nad zasadami, które pomogą obłudnym ludziom podejmować najbezpieczniejsze decyzje w każdym scenariuszu decyzyjnym. Potwierdzenie, że te przepisy działają, jest ostateczną przeszkodą. Musimy przezwyciężyć te problemy, aby samochody autonomiczne mogły bezpiecznie poruszać się po naszych drogach.
Pierwsze prawo Asimova
Pisarz science fiction Isaac Asimov napisał swoje „Trzy prawa robotów” w 1942 roku. Pierwsza i najważniejsza zasada brzmi: „Robot nie może skrzywdzić człowieka ani pozwolić, aby wyrządził mu krzywdę przez zaniechanie działania”. Kiedy samochody autonomiczne szkodzą ludziom, naruszają tę pierwszą zasadę.
Dla pewności prowadzimy badania w Robotarium Narodowym. Aby obłudni ludzie zawsze podejmowali decyzje zgodne z tym prawem. Taka gwarancja mogłaby rozwiązać poważne problemy związane z bezpieczeństwem, które uniemożliwiają samochodom autonomicznym zawładnięcie światem.
Oprogramowanie AI jest całkiem dobre w uczeniu się scenariuszy, z którymi nigdy się nie spotkałeś. Wykorzystując „sieci neuronowe” inspirowane konstrukcją ludzkiego mózgu, oprogramowanie może wykrywać wzorce w danych, takich jak ruch samochodów i pieszych, a następnie zapamiętywać te wzorce w nowych sytuacjach.
Musimy jednak jeszcze potwierdzić, że wszelkie praktyki bezpieczeństwa nauczone samochodów autonomicznych będą działać w przypadku tych nowych technik. Aby to zrobić, możemy zwrócić się do formalnego potwierdzenia: sposobu, w jaki informatycy wykorzystują, aby udowodnić, że prawo działa w każdej sytuacji.
Na przykład w matematyce reguły dowodzą, że x + y równa się y + x bez potrzeby sprawdzania ewentualnych wartości x i y. Formalna weryfikacja robi to samo: pozwala nam zademonstrować, jak oprogramowanie AI reaguje na różne scenariusze, bez testowania wszystkich scenariuszy, które można przetestować na drogach publicznych. Przeprowadźmy pełny eksperyment.
Jednym z najbardziej zauważalnych ostatnich sukcesów w tym obszarze jest zatwierdzenie systemu AI, który wykorzystuje sieci neuronowe do zapobiegania kolizjom samolotów samobieżnych. Naukowcy oficjalnie potwierdzili, że system zawsze będzie reagował poprawnie, niezależnie od poziomych i pionowych manewrów samolotu.
Świetny sposób na kodowanie
Aby zapewnić bezpieczeństwo wszystkim użytkownikom dróg, ludzcy kierowcy przestrzegają doskonałego kodeksu. Zależy to od tego, czy ludzki mózg nauczy się tych zasad i racjonalnie zastosuje je w niezliczonych rzeczywistych scenariuszach. Możemy także nauczyć nasze samochody wielkich przepisów drogowych. Wymaga to wybrania każdej reguły w kodzie do uczenia pojazdu sieci neuronowe jak przestrzegać każdej zasady. Następnie sprawdź, czy można im zaufać w każdej sytuacji, upewniając się, że przestrzegają tych zasad.
Jednak wyzwaniem jest bezpieczna weryfikacja i egzekwowanie tych zasad. Badanie konsekwencji wyrażenia „nigdy nie powinno” w kodeksie drogowym jest złożone.
Aby samochód autonomiczny mógł reagować jak ludzki kierowca w każdym scenariuszu reakcji. Musimy zaplanować tę politykę tak, aby była pełna szczegółów. I okazjonalny scenariusz, w którym różne zasady współdziałają. Są one w bezpośrednim konflikcie i wymagają, aby maszyna zignorowała jeden lub więcej podanych powodów.
Planowanie w pełni autonomicznego samochodu, który zawsze podejmuje najbezpieczniejszą decyzję, jest dużym zadaniem technicznym.
Szkolenie samochodów autonomicznych do perfekcji będzie procesem dynamicznym. Zależy to od ekspertów prawnych, kulturowych i technologicznych definiujących ukończenie w czasie. Narzędzie AISEC jest tworzone z myślą o tym koncie i zapewnia „panel sterowania misją” umożliwiający monitorowanie zakończenia. Następnie przemysłowi udostępnia się zgodność z najbardziej skutecznymi przepisami dotyczącymi samochodów autonomicznych.
Mamy nadzieję, że do 2024 r. będziemy mogli zaoferować pierwszy prototyp narzędzia AISEC. Nadal jednak musimy przeprowadzić weryfikację zgodności, aby zająć się utrzymującym się poziomem bezpieczeństwa. A także obawy związane z bezpieczeństwem, dlatego ich zbudowanie i zamontowanie w naszych samochodach zajmie lata.
Wypadki z udziałem samochodów autonomicznych zawsze trafiają na pierwsze strony gazet. Samochód autonomiczny wykrywa pieszego i zatrzymuje się w 99% przypadków, zanim zderzy się ze mną. Jest przedmiotem pochwał w laboratoriach badawczych, ale to prawdziwa maszyna do zabijania, która tworzy solidne i sprawdzalne zasady bezpieczeństwa dla samochodów autonomicznych. Staramy się, aby ten 1% wypadków stał się przeszłością.
Pobierz motywy WordPressPobierz motywy WordPressPobierz zerowe motywy WordPressPobierz motywy WordPresskurs udemy do pobrania za darmopobierz oprogramowanie mobilnePobierz motywy WordPressudemy do pobrania za darmo