Эксперты обманули автопилот Tesla с помощью взломанного билборда
13 октября 2020 года
Специалисты Университета имени Давида Бен-Гуриона в Негеве (Израиль) смогли обмануть(недоступная ссылка) автопилот автомобиля Tesla, всего на доли секунды выведя на рекламный щит знак «Стоп». По их словам, если хакерам удастся взломать подключенный к интернету билборд, то они смогут управлять движением на дороге и спровоцировать ДТП, при этом не оставив никаких следов.
«Злоумышленник просто проецирует изображение чего-то на дорогу или вставляет несколько кадров в изображение на цифровом рекламном щите, и машина задействует тормоза или, возможно, свернет, а это опасно. Водитель этого даже не заметит. Так что чья-то машина просто отреагирует, и никто не поймет почему», - пишет исследователь Университета имени Давида Бен-Гуриона Исроэл Мирский.
На первом этапе исследования в начале нынешнего года команда экспертов проецировала на дорогу фигуру человека, а также дорожные знаки на деревья и другие поверхности. Ночью, когда проекции были отчетливо видны, исследователи смогли обмануть Tesla Model X, на которой установлена система помощи водителю HW2.5 Autopilot (на тот момент самая последняя версия, а теперь уже вторая), и устройство Mobileye 630. «Увидев» изображение пешехода, спроецированное всего на долю секунды, автомобиль остановился, а с помощью проецируемого дорожного знака исследователи смогли обманом заставить устройство Mobileye сообщить водителю о необходимости ограничить скорость.
В ходе недавнего этапа исследования специалисты внедрили кадры с изображением дорожного знака «Стоп» в цифровые билборды в попытке обмануть последнюю версию автопилота HW3. Им снова удалось обмануть Tesla и заставить то же устройство Mobileye выдать водителю ошибочные предупреждения.
Как установили исследователи, изображение, появляющееся в течение 0,42 секунды, успешно обманывает Tesla, в то время как изображение, появляющееся всего на одну восьмую секунды, обманывает устройство Mobileye.
Источники
правитьЭта статья содержит материалы из статьи «Эксперты обманули автопилот Tesla с помощью взломанного билборда», опубликованной на сайте SecurityLab.ru и распространяющейся на условиях лицензии Creative Commons Attribution 3.0 Unported (CC-BY 3.0 Unported). |
Любой участник может оформить статью: добавить иллюстрации, викифицировать, заполнить шаблоны и добавить категории.
Любой редактор может снять этот шаблон после оформления и проверки.
Комментарии
Если вы хотите сообщить о проблеме в статье (например, фактическая ошибка и т. д.), пожалуйста, используйте обычную страницу обсуждения.
Комментарии на этой странице могут не соответствовать политике нейтральной точки зрения, однако, пожалуйста, придерживайтесь темы и попытайтесь избежать брани, оскорбительных или подстрекательных комментариев. Попробуйте написать такие комментарии, которые заставят задуматься, будут проницательными или спорными. Цивилизованная дискуссия и вежливый спор делают страницу комментариев дружелюбным местом. Пожалуйста, подумайте об этом.
Несколько советов по оформлению реплик:
- Новые темы начинайте, пожалуйста, снизу.
- Используйте символ звёздочки «*» в начале строки для начала новой темы. Далее пишите свой текст.
- Для ответа в начале строки укажите на одну звёздочку больше, чем в предыдущей реплике.
- Пожалуйста, подписывайте все свои сообщения, используя четыре тильды (~~~~). При предварительном просмотре и сохранении они будут автоматически заменены на ваше имя и дату.
Обращаем ваше внимание, что комментарии не предназначены для размещения ссылок на внешние ресурсы не по теме статьи, которые могут быть удалены или скрыты любым участником. Тем не менее, на странице комментариев вы можете сообщить о статьях в СМИ, которые ссылаются на эту заметку, а также о её обсуждении на сторонних ресурсах.