Autopilot Tesli oszukany. Naukowcy zmusili samochód do awaryjnego hamowania
Naukowcy pracujący na Uniwersytecie Ben Guriona w Izraelu przez ostatnie dwa lata testowali możliwości autopilota Tesli i udało im się go oszukać. Jak się okazuje, szybka reakcja na pojawiające się przeszkody, może okazać się sporą wadą oprogramowania.
Spis treści
Niezawodność Tesli pod znakiem zapytania
2018 rok przyniósł Tesli szereg głośnych wypadków, w których głównym sprawcą był autopilot samochodu. Jednym z przykładów jest sprawa związana z 28-letnią kobietą z Utah, która zderzyła się z nieruchomym wozem strażackim, jadąc z prędkością około 100km/h. O ile to zdarzenie zakończyło się wyłącznie złamaną kostką, o tyle zdarzały się też wypadki śmiertelne. Jedną z ofiar był, chociażby Wei Huang, inżynier oprogramowania Apple, który zginął 23 marca, gdy autonomiczny pojazd uderzył w barierę na autostradzie w Mountain View w Kalifornii.
Firma Elona Muska, aby uspokoić opinię publiczną, wydała wówczas oświadczenie, że ten sam odcinek trasy z włączonym autopilotem przejechali około 85 tys. razy od wprowadzenia tej funkcji w 2015 roku i do tamtej pory obyło się to bez większych problemów. Zaś winę za wypadek zrzucono na fakt, że barierka była wcześniej uszkodzona, czego system kierujący pojazdem nie rozpoznał.
Kwestie bezpieczeństwa systemów wspomagających kierowcę zazwyczaj opierały się właśnie na błędach w rozpoznaniu przeszkód, które człowiek od razu by rozpoznał. Tym razem, jak się okazuje, zagrożeniem mogą być obiekty niedostrzegalne dla ludzkiego oka podczas jazdy.
Billboardy-widmo
W swoich badaniach naukowcy z Izraela próbowali oszukać autopilota Tesli, pokazując wszelkiego rodzaju projekcje świetlne na drogach. Początkowo, na początku 2020 roku, przed samochodem nagle wyświetlano sylwetki pieszego lub znaki drogowe, co powodowało, że samochód automatycznie się zatrzymywał.
Idąc w ślad za ciosem, zespół z Uniwersytetu Ben Guriona umieścił przy drodze mały wyświetlacz, na którym puszczono reklamę burgerów, lecz w trakcie jej trwania, na 500 ms pokazywał się znak stopu. Tak krótki czas wystarczył autopilotowi do tego, aby gwałtownie zahamować. Jak zostało wskazane, problemem jest tutaj system bazujący na kamerach, a nie (jak w wielu innych autonomicznych samochodach) na technologii LiDAR. Auta wyposażone w ten radar o wiele lepiej mapują otoczenie pojazdu i bez problemu wykrywają elementy, które nie są bezpośrednio związane z infrastrukturą drogową.
Jak zapewnia Yisroel Mirsky z zespołu badawczego, podatność jest na tyle groźna, że mogą ją wykorzystać cyberprzestępcy, włamując się do billboardów występujących na drodze i skłaniając Teslę do określonych zachowań. – Kierowca w ogóle tego nie zauważy. Więc jego samochód po prostu zareaguje, a on sam nie zrozumie dlaczego.
Odpowiedź Tesli
Naukowcy przedstawili sprawę firmie Elona Muska, lecz nie uzyskali odpowiedzi, która mogłaby satysfakcjonować kierowców. W mailu zwrotnym otrzymali standardowy komunikat: “Autopilot to funkcja wspomagająca kierowcę, która jest przeznaczona do użytku tylko przez w pełni uważnego kierowcę, trzymającego ręce na kierownicy i gotowego do przejęcia kontroli nad autem w dowolnym momencie.”
Badacze Ben Guriona odpowiadają, że autopilot w praktyce jest używany w zupełnie inny sposób. – Jak wiemy, ludzie używają tej funkcji jako autopilota i nie skupiają 100% swojej uwagi na drodze podczas jej używania – napisał Mirsky. – Dlatego musimy postarać się załagodzić to zagrożenie, aby zapewnić ludziom bezpieczeństwo, niezależnie od ostrzeżeń.
Zdjęcie główne artykułu pochodzi z unsplash.com.