Американские ученые сделали вывод, что беспилотный автомобиль можно "взломать" даже не прибегая к проникновению в исходный код программного обеспечения транспортного средства. По словам исследователей, чтобы обмануть автономную машину, достаточно изменить дорожные знаки.
Исследованием беспилотных автомобилей занимались ученые, представляющие университеты Мичигана, Калифорнии, Вашингтона, Стоуни Брук, а также специалисты издания motor1. В своем совместном докладе эксперты предупредили, что для "взлома" автономной машины не обязательно быть хакером.
Специалисты пояснили, что работа беспилотного транспорта во многом зависит от дорожных знаков, благодаря которым он получает множество данных. Если на эти указатели нанести лишние символы, то автономная машина может "запутаться". Так, ученые решили проверить, как отреагирует беспилотный автомобиль на знак остановки с тремя добавленными на него черными наклейками. В итоге, система машины восприняла указатель как знак, предупреждающий об ограничении скорости до 70 км/ч.
Ученые признают, что человек за рулем тоже может допускать ошибки, однако в непредвиденных ситуациях он сможет "импровизировать". Беспилотник так поступить, вероятно, не сможет, поэтому его системы требуют серьезной модернизации они должны стать более гибкими и вариативными.