В 2016 году группа исследователей в области безопасности Keen Security Lab успешно взломала систему автомобиля Tesla Model S, после чего компания заметно улучшила ее надежность. В 2019 году хакеры решили выявить слабые стороны автопилота, причем не при помощи взлома программного обеспечения, а используя визуальные ловушки. Исследователям это действительно удалось, однако компания Tesla не оценила их старания и опубликовала несколько заявлений, уверяющих в хорошей защищенности автомобилей.
По мнению исследователей, обеспечивающую беспилотное движение систему Advanced Driver Assistance System можно обмануть даже при помощи визуальных ловушек. В первом эксперименте хакеры продемонстрировали, что стеклоочистители автомобиля можно активировать извне, при помощи специально созданного изображения на большом экране телевизора.
Открытие не оказало на представителей Tesla особого впечатления. Они обратили внимание, что телевизор должен быть в непосредственной близости к лобовому стеклу автомобиля — вряд ли кто-то будет таскать с собой огромный экран, чтобы просто включить очистку стекла. Более того, пользователи могут отключить автоматическую активацию «дворников», и включать их строго вручную. Поэтому обнаруженная уязвимость не считается опасной.
Вторая попытка обмана автопилота была осуществлена при помощи наклеенных на дорогу меток, которые способны сбить систему с толку. Нарисовав на размеченной дороге лишнюю точку, хакеры действительно изменили направление автомобиля — он перешел на встречную полосу движения.
У компании Tesla нашелся ответ и на это открытие. По словам представителей, владельцы автомобилей Tesla обязаны быть готовыми взяться за руль даже во время включенного автопилота. Поэтому, если хакерам и удастся обмануть автомобиль при помощи разметки, водитель сможет вернуться в нужную сторону или затормозить.