Роман Сумцов
Чуть больше недели назад в интернете появилось видео, в котором электрокар Tesla с включенным автопилотом сбивает манекен ребёнка. Автор ролика после собственных тестов призвал запретить использование систем автоматического вождения Tesla на дорогах США. Мы изучили доказательства сторонников и противников запрета, разобрались в происходящем и пересказываем хронологию скандала.
С чего всё началось
На YouTube канале Dan O'Dowd Media вышло видео с Tesla Model 3 2019 года, которая трижды сбила манекен ребёнка. Во всех трёх случаях тест-пилот разгонял автомобиль до 40 миль в час (64 км/ч) самостоятельно и переводил его в режим full self-driving (полное автоматическое вождение).
Автомобиль несколько раз сбрасывал скорость, но не останавливался перед манекеном ребенка. Объехать препятствие машина тоже не смогла.
Из-за полученных результатов автор ролика призвал всех неравнодушных позвонить в Конгресс США и попросить запретить использование систем полного автоматического вождения на дорогах на законодательном уровне. Казалось бы — идея справедливая, но фанаты Tesla усомнились в правдивости ролика.
Альтернативный тест
Через 5 дней после выхода ролика с фейлом автопилота на YouTube-канале Whole Mars Catalog появился альтернативный тест (к моменту публикации этой статьи видео было удалено из-за нарушения правил YouTube). Автор видео попробовал наехать на манекен при начале движения. Потом проверил, увидит ли электроника манекен на скорости 4 мили в час. В обоих случаях «ребёнок» остался цел.
В третьем тесте манекен стоял на краю дороги и автопилот его объехал. Затем последовало несколько испытаний с живым взрослым человеком, одно из которых предполагало неожиданное появление пешехода на дороге при скорости автомобиля 7 миль в час.
Самым показательным оказался тест на скорости 27 миль в час: автомобиль опознал манекен ребёнка, сбавил скорость и объехал препятствие. Однако теста на 40 милях в час автор этого ролика почему-то так и не сделал. Да и тесты проходили на обычной дороге, а не на полигоне с размеченной дорожными конусами разгонной полосой.
И что же могло пойти не так?
Самое важное: система full self-driving от Теслы всё ещё находится в стадии beta-тестирования, поэтому водителям запрещено полностью передавать управление компьютеру. Во время вождения нужно придерживать руль и при первом же сигнале системы брать управление на себя.
В отчёте об испытаниях со сбитыми манекенами написано, что автомобиль проехал на автопилоте чуть больше ста метров. Для торможения со скорости в 40 миль в час требуется около 20–35 метров, то есть примерно треть всей дистанции.
Важно и то, что все препятствия автопилот показывал на центральном экране. И даже в тестах Dan O'Dowd Media машина видела манекен (как и ограничивающие коридор конусы), то есть распознавание препятствий работает. Это отражено в полном видеоотчёте испытаний.
Водитель же замечал препятствие ещё за 100 метров, а машина начала торможение только перед пятью последними конусами, то есть не более чем за 10–15 метров до препятствия. Возможности полностью остановиться у неё попросту не было.
Также заметно, что автопилот вывел на экран требование взять управление на себя. В это же время руль сам крутится вправо, то есть Тесла всё же пытается уйти от столкновения, как и в тестах Whole Mars Catalog. Но машина едет по полосе из дорожных конусов, которые есть и за манекеном. То есть деваться было просто некуда, поэтому Tesla Model 3 осталась в полосе и наехала на манекен.
Почему машина так поздно тормозит?
Предположение на этот счёт сделал YouTube-канал Dr. Know-it-all Knows it all. В видео автор провёл собственные тесты и обратил внимание, что в ролике Dan O'Dowd Media в момент включения автопилота уведомление на экране меньше, чем стандартное предупреждение о необходимости держать руки на руле. Оно похоже на то, что появляется при нажатии на газ. В таком случае автопилот не тормозит, пока водитель не уберёт ногу с педали.
Из-за низкого качества видео от Dan O'Dowd Media невозможно определить точную надпись на уведомлении. А это можно трактовать в пользу защитников Tesla. Ещё стоит обратить внимание на то, что как раз последние 5 конусов до манекена меньше по размеру, чем предыдущие. Не исключено, что подъезд к ним и должен сигнализировать о том, что пора убирать ногу с газа. Но сделал ли это водитель — неизвестно.
Нужно учесть и то, что Tesla не использует в автопилоте лазерный дальномер (лидар — который применяют при разработке беспилотников большинство крупных автопроизводителей и сторонних компаний), а полагается на изображение с камер. Из-за этого YouTube канал Tesla Drivers ещё 2 года назад предположил, что ребёнок может быть воспринят электроникой Теслы как взрослый человек на большой дистанции, а значит, каких-то особых сценариев на этот случай машина может и не задействовать. В одном из видео из этого источника автопилот замечает препятствие в виде человека, хотя на дороге стоял манекен ребёнка. При приближении к объекту электроника теряет его из виду и только в непосредственной близости обнаруживает вновь, отдавая команду на экстренное торможение.
Зачем вообще кому-то дискредитировать Теслу?
Ролик со сбитыми манекенами выпустил директор компании Green Hills Software, которая занимается разработкой программной части автопилотов BMW. Tesla является прямым конкурентом компании. А ещё три месяца назад YouTube-канал Dan O'Dowd Media выложил видео, в котором показаны ДТП с участием автопилота Tesla в черте города, но тогда никакого шума по этому поводу не поднялось.
Важно помнить и о том, что Tesla требует контролировать действия автопилота, а значит, гарантировать его безопасность нельзя. Это же подтверждают данные американского регулятора безопасности транспорта. Согласно им, автопилот Tesla отключается за секунду до ДТП, чтобы компанию нельзя было винить в аварии.
Получается, что ездить с автопилотом Теслы — это как водить машину с удержанием в полосе или активным круиз-контролем: вроде бы полезно, но полностью полагаться на них нельзя. И бояться такого автомобиля нужно не меньше, чем остальных.