Системите за подпомагане на водача (ADAS) се развиват страшно бързо в автомобилната индустрия. Вероятно с течение на времето те ще станат много надеждни, но днес неуязвимостта им изобщо не е очевидна.
Китайски изследователи от Tencent Keen Security Lab, водещата световна компания за изследвания в областта на сигурността, постоянно провеждат експерименти в тази област. Наскоро учените откриха, че да бъде излъган автопилотът на Tesla не само е лесна, а адски лесна работа. Резултатите от този тест са доста тревожни.
Манипулациите бяха извършени с пътната маркировка, като Tesla Model S умишлено бе заблудена, за да се види реакцията на модела. Както се знае, освен всичко друго, автопилотът използва за ориентиране и пътната маркировка. Ако тя е ясна и правилна, всичко е наред. Ако обаче е изтъркана на места или е нанесена неправилно - умишлено или неволно, това може да се окаже сериозен проблем.
По думите на изследователите само малки бели стикери, поставени на пътя, са достатъчни, за да се пренасочи автопилотът в грешната посока. Стикерите напълно дезориентират автопилота и карат автомобила буквално да лъкатуши по пътя и да навлезе в насрещното. Резултатите от теста са документирани на уебсайта на Tencent Keen Security Lab и във видеоклип.
Тестваният Tesla Model S следва безусловно примамките и се придвижва към лентата с насрещно движещите се коли (каквито, разбира се, в експеримента липсват). Това е само един от идентифицираните начини за възможни манипулации с автомобилен автопилот. Кой знае какво може да измисли някой побъркан, посочват китайските учени.