В то время как критики неоднократно ставили под сомнение безопасность программного обеспечения Tesla для полного автономного вождения (FSD), хакер обнаружил скрытую версию этой функции, которая потенциально может быть более опасной. Однако неясно, насколько широко этот секретный режим доступен для пользователей.
Обычный режим FSD отслеживает водителей, чтобы убедиться, что они сосредоточены на дороге, и предупреждает их, если считает, что они недостаточно внимательны. По словам пользователя @greentheonly, который часто сообщает новости о разработке Tesla FSD, секретный «режим Элона» не имеет таких ограничений, позволяя пользователям делать все, что они хотят, поскольку беспилотный автомобиль становится полностью самостоятельным.
Неясно, какие модели Tesla могут получить доступ к режиму Elon, и хакер не сообщил, как его задействовать. Они только объяснили, что этот процесс представляет собой сложный взлом, недоступный через официальное программное обеспечение для обслуживания Tesla Toolbox, и что они выполнили его на автомобиле, произведенном в 2020 году. Взлом возможен только на специальных транспортных средствах, принадлежащих компании, подразумевая, что он все еще находится в этап раннего внутреннего тестирования.
После тестирования режима Elon на протяжении почти 600 миль, @greentheonly в целом остался доволен. Машина движется несколько медленнее, торможение менее интенсивное, чем в обычном FSD, и иногда могут возникать проблемы со сменой полосы движения. Самая большая оставшаяся проблема касается препятствий, таких как строительные работы, дорожный мусор и выбоины. Хакер опубликовал длинное видео (см. ниже), показывающее, что функция в основном без проблем работает на оживленной трассе, хотя им дважды приходилось брать на себя управление, чтобы обгонять другие транспортные средства.
В то время как водители Tesla могут стремиться к режиму FSD, который не будет их постоянно привлекать к управлению, эта функция, вероятно, столкнется с не меньшим сопротивлением и критикой, чем существующий вариант. В феврале Национальная администрация безопасности дорожного движения США посоветовала Tesla отозвать более 300 000 автомобилей из-за недостатков программного обеспечения FSD. В прошлом месяце сотрудник слил огромное количество документов компании, раскрывающих тысячи жалоб клиентов на безопасность.
С аналогичными жалобами сталкивались и беспилотные автомобили других производителей. По данным дорожных властей Калифорнии, автомобили дочерней компании General Motors препятствовали движению и вызывали ложные вызовы службы экстренной помощи из-за спящих пассажиров.
В то время как критики неоднократно ставили под сомнение безопасность программного обеспечения Tesla для полного автономного вождения (FSD), хакер обнаружил скрытую версию этой функции, которая потенциально может быть более опасной. Однако неясно, насколько широко этот секретный режим доступен для пользователей.
Обычный режим FSD отслеживает водителей, чтобы убедиться, что они сосредоточены на дороге, и предупреждает их, если считает, что они недостаточно внимательны. По словам пользователя @greentheonly, который часто сообщает новости о разработке Tesla FSD, секретный «режим Элона» не имеет таких ограничений, позволяя пользователям делать все, что они хотят, поскольку беспилотный автомобиль становится полностью самостоятельным.
Неясно, какие модели Tesla могут получить доступ к режиму Elon, и хакер не сообщил, как его задействовать. Они только объяснили, что этот процесс представляет собой сложный взлом, недоступный через официальное программное обеспечение для обслуживания Tesla Toolbox, и что они выполнили его на автомобиле, произведенном в 2020 году. Взлом возможен только на специальных транспортных средствах, принадлежащих компании, подразумевая, что он все еще находится в этап раннего внутреннего тестирования.
После тестирования режима Elon на протяжении почти 600 миль, @greentheonly в целом остался доволен. Машина движется несколько медленнее, торможение менее интенсивное, чем в обычном FSD, и иногда могут возникать проблемы со сменой полосы движения. Самая большая оставшаяся проблема касается препятствий, таких как строительные работы, дорожный мусор и выбоины. Хакер опубликовал длинное видео (см. ниже), показывающее, что функция в основном без проблем работает на оживленной трассе, хотя им дважды приходилось брать на себя управление, чтобы обгонять другие транспортные средства.
В то время как водители Tesla могут стремиться к режиму FSD, который не будет их постоянно привлекать к управлению, эта функция, вероятно, столкнется с не меньшим сопротивлением и критикой, чем существующий вариант. В феврале Национальная администрация безопасности дорожного движения США посоветовала Tesla отозвать более 300 000 автомобилей из-за недостатков программного обеспечения FSD. В прошлом месяце сотрудник слил огромное количество документов компании, раскрывающих тысячи жалоб клиентов на безопасность.
С аналогичными жалобами сталкивались и беспилотные автомобили других производителей. По данным дорожных властей Калифорнии, автомобили дочерней компании General Motors препятствовали движению и вызывали ложные вызовы службы экстренной помощи из-за спящих пассажиров.