Сегодня 08 октября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → fsd

Хакеры получили доступ к процессорам Tesla FSD аварийных автомобилей и раскрыли тревожащие данные

Независимое расследование, проведенное The Wall Street Journal, показало, что система помощи водителю Tesla Autopilot может приводить к смертельным авариям из-за ошибочных решений, принимаемых алгоритмом. Журналисты издания извлекли компьютеры Tesla с функцией FSD из аварийных автомобилей и с помощью хакеров, как сообщает Notebookcheck, получили доступ к необработанным данным автопилота.

 Системная плата компьютера Tesla FSD. Источник изображения: WSJ

Системная плата компьютера Tesla FSD. Источник изображения: WSJ

Анализ этой информации вместе с видеозаписями аварий и официальными отчётами позволил воссоздать 222 инцидента с участием Tesla. В 44 случаях автомобили на автопилоте внезапно меняли траекторию направления, а в 31 случае не остановились или не уступили дорогу. Последний сценарий, по данным исследования, обычно приводил к наиболее тяжёлым авариям.

Одним из самых ярких и нашумевших примеров служит столкновение с перевёрнутым прицепом, который система автопилота не смогла распознать как препятствие и автомобиль Tesla врезался в него на полной скорости. Приводятся и другие свидетельства, когда во время тест-драйва система FSD повела себя неадекватно, в следствии чего автомобиль пересёк сплошную линию разметки и едва не спровоцировал аварию на перекрёстке. Также выяснилось, что система FSD плохо распознаёт аварийные сигналы, что приводит к столкновению транспортных средств.

Расследование The Wall Street Journal выявило в автопилоте проблемы как аппаратного, так и программного характера, начиная от медленного обновления алгоритмов до недостаточной калибровки камер. Пока неясно, достаточно ли этих данных, чтобы опровергнуть утверждение Илона Маска (Elon Musk) о том, что система Tesla всё равно безопаснее водителя-человека.

Предполагается, что Tesla специально оптимизирует автопилот для Илона Маска и влиятельных блогеров

Издание Business Insider на этой неделе выступило с громким разоблачением, после опроса нескольких бывших сотрудников Tesla заявив, что компания целенаправленно уделяет больше внимания совершенствованию автопилота на тех маршрутах, по которым перемещается её глава Илон Маск (Elon Musk) или наиболее влиятельные видеоблогеры, освещающие данную тематику в США.

 Источник изображения: Tesla

Источник изображения: Tesla

Расследование Business Insider показало, что процесс обработки видеоданных, поступающих с бортовых камер электромобилей Tesla для обучения систем автопилота, организован неоднородно. Руководители профильных подразделений, которые занимаются аннотацией данных, настаивают на более тщательной обработке данных, собранных на определённых маршрутах. Хотя технология обработки информации не позволяет специалистам Tesla судить о принадлежности конкретного электромобиля определённому лицу, некоторые из исполнителей подобных работ считают, что собираемой с машин главы компании информации отдаётся особый приоритет с точки зрения качества аннотаций. Некоторым сотрудникам даже выплачивались сверхурочные в случае необходимости срочной обработки данных с какого-то маршрута, предположительно связанного с деятельностью Илона Маска.

Имеется в этой истории и другой прецедент — одного из сотрудников Tesla якобы уволили из-за некачественной аннотации фрагмента видео, предположительно полученного с электромобиля, на котором передвигается Илон Маск. Некачественная обработка привела к тому, что система активной помощи водителю некорректно себя повела в определённой ситуации, и это вызвало недовольство начальства. Многие из бывших сотрудников Tesla признаются, что им поручалось заняться аннотацией видеоданных с особой тщательностью, и судя по маршрутам передвижения, они были как-то связаны с посещением штаб-квартир Tesla, SpaceX и даже Twitter в период покупки последней Илоном Маском в 2022 году. До ноября 2021 года, как считается, Маск владел домом в Калифорнии, и окрестные маршруты на отдельных видеозаписях с бортовых камер Tesla также обрабатывались профильными специалистами с особой тщательностью.

Всё это приводит к тому, как отмечают эксперты, что Илон Маск при использовании FSD получает заметно более высокое качество работы бортовой автоматики электромобилей Tesla, поскольку наиболее часто преодолеваемые им маршруты в итоге получаются более изученными. Это может создавать у него ложное представление о реальных возможностях бортовой автоматики электромобилей данной марки. Не обделяет вниманием Tesla и известных в США блогеров, которые снимают ролики про работу FSD и нередко критикуют эту систему. Специалисты компании признались, что часть видеозаписей получает приоритетную обработку, подобной той, что свойственна получаемым с предполагаемых машин Илона Маска данным.

Как утверждается, представители Tesla следят за маршрутами блогеров на основе их обзоров, а затем при необходимости направляют в этот район водителей-испытателей на тестовых машинах, чтобы собрать дополнительную информацию для совершенствования работы автоматики в конкретной местности. Один из таких блогеров, Чак Кук (Chuck Cook), признал, что часто видит в окрестностях своего дома испытателей Tesla на служебных машинах, но все попытки вступить с ними в контакт пресекаются сотрудниками компании. Специалисты утверждают, что в подобном внимании Tesla к замечаниям блогеров нет ничего предосудительного, ведь эта категория водителей отличается особым пристрастием в вопросе поиска «слабых мест» в программном обеспечении, и своей деятельностью, по сути, помогает его усовершенствовать.

Tesla с автопилотом в среднем проезжает 12,2 млн км без аварий — в 8 раз больше, чем без автопилота

Средства массовой информации пристально следят за каждой аварией с участием управляемых автоматикой электромобилей Tesla, а между тем компания регулярно публикует отчёты об аварийности на базе статистики, полученной при обработке собираемых по всему автопарку данных. Сейчас электромобиль этой марки со включенной функцией Autopilot в среднем способен проезжать без ДТП по 12,2 млн км.

 Источник изображения: Tesla

Источник изображения: Tesla

Как поясняет Electrek, компания Tesla возобновила публикацию подобной статистики, хотя в четвёртом квартале 2022 года без объяснения причин прекратила это делать. Глядя на приведённый ниже график, можно догадаться, почему это случилось. По всей видимости, изменения в бортовом программном обеспечении с начала прошлого года привели к ухудшению статистики аварийности Tesla по сравнению с предыдущими периодами, поэтому компания и решила не раскрывать данные. Теперь, когда статистика снова начала улучшаться, можно обнародовать данные уже задним числом.

 Источник изображения: Tesla, Electrek

В первом квартале текущего года, как отмечается в отчёте Tesla, компания добилась серьёзного прогресса в продолжительности безаварийного пробега. В частности, машины этой марки со включенной функцией Autopilot в среднем проезжают без ДТП по 12,2 млн километров (7,63 млн миль). Даже электромобиль Tesla без этой функции в среднем демонстрирует более высокую безаварийность, чем все прочие транспортные средства на дорогах США. В частности, электромобиль Tesla без активного Autopilot в среднем проезжает 1,5 млн км без аварий, тогда как средний показатель по стране за 2022 год для машин всех марок не превышал 1,07 млн км.

При этом надо учитывать, что Tesla не приводит статистику по более совершенному программному комплексу FSD, который должен дополнительно улучшать показатели безаварийности. Autopilot по своим возможностям заметно уступает FSD, но хорошая новость заключается в том, что с недавних пор обе системы используют один программный код, а потому совершенствуются синхронно.

Следствие подозревает Tesla в обмане инвесторов, манипуляциях с ценными бумагами и подлоге данных о FSD

Агентству Reuters стало известно, что следователи в США подозревают компанию Tesla в манипуляциях с ценными бумагами или подлоге данных с использованием электронных средств с целью ввести в заблуждение инвесторов и потребителей относительно реальных возможностей системы активной помощи водителю FSD.

 Источник изображения: Tesla

Источник изображения: Tesla

Расследование в отношении Tesla ведётся с октября 2022 года, и теперь у Reuters появились новые данные о конкретных подозрениях следователей. Компания, по их мнению, могла предоставлять недостоверную информацию о своих системах активной помощи водителю не только государственным регуляторам, но и клиентам. Tesla также подозревается в манипуляциях с ценными бумагами с целью обмана инвесторов. Есть у Комиссии США по ценным бумагам и биржам (SEC) и вопросы по поводу предоставления компанией недостоверной информации о системах Autopilot и FSD инвесторам Tesla.

Необходимые документы были запрошены следователями у Tesla, сейчас ведётся их изучение. Илон Маск (Elon Musk) не раз высказывался о возможностях данных систем, говоря об отсутствии необходимости для человека вмешиваться в процесс управления транспортным средством, но регуляторы принудили компанию в официальных материалах напоминать клиентам, что водитель должен контролировать ситуацию и несёт ответственность за поведение машины на дороге.

Глава компании уже почти на протяжении десяти лет обещает инвесторам и клиентам реализовать полное автоматическое управление электромобилями Tesla, но постоянно сдвигает сроки на конец очередного года. Следствие пытается определить, насколько подобные заявления могли ввести инвесторов и клиентов Tesla в заблуждение, и повлекло ли это какой-то измеряемый материальный ущерб. По требованию властей недавно Tesla была вынуждена через программное обновление сделать уведомление водителям о необходимости следить за дорогой при использовании FSD более заметным. В США до сих пор расследуются сотни ДТП, в которых были задействованы электромобили Tesla со включенными системами активной помощи водителю. Часть из них завершились летальным исходом для некоторых участников.

Федеральное расследование аварий с автопилотом Tesla нашло их причину — «неправильное использование»

Национальная администрация безопасности дорожного движения (NHTSA) закрыла расследование в отношении системы помощи водителю Tesla Full Self-Driving (FSD), рассмотрев сотни аварий, в том числе 13 со смертельным исходом, связанных с её «неправильным использованием». Одновременно NHTSA начинает новое расследование, чтобы оценить насколько эффективны доработки автопилота, произведённые Tesla во время отзывной компании в декабре.

 Источник изображения: Tesla

Источник изображений: Tesla

Закрытие первоначального расследования, которое началось в 2021 году, знаменует собой конец одной из наиболее заметных попыток правительства по тщательному изучению программного обеспечения автопилота Tesla. Сегодня Управление по расследованию дефектов NHTSA сообщило о проделанном «обширном объёме работы», который позволяет сделать вывод, что «слабая система взаимодействия с водителем Tesla не соответствует допустимым эксплуатационным возможностям автопилота».

«Это несоответствие привело к критическому разрыву в безопасности между ожиданиями водителей относительно рабочих возможностей [автопилота] и истинными возможностями системы, — пишет агентство в своём отчёте. — Этот разрыв привёл к предсказуемому неправильному использованию и сбоям, которых можно было избежать».

NHTSA сообщило, что в ходе расследования было рассмотрено 956 зарегистрированных аварий до 30 августа 2023 года. Примерно в половине (489) из них агентство не выявило «вины» автопилота либо не располагало достаточными данными для проведения оценки.

Оставшиеся 467 аварий были условно разделены на три группы. В наиболее серьёзных 211 авариях «лобовая плоскость Tesla столкнулась с другим транспортным средством или препятствием, и у внимательного водителя было достаточно времени, чтобы отреагировать, чтобы избежать столкновения или смягчить его последствия». 145 аварий были связаны с «выездом за пределы проезжей части в условиях низкой тяги, например, на мокрой дороге». 111 аварий произошли при выезде на проезжую часть, когда «система автоматического рулевого управления была случайно отключена действиями водителя».

Агентство полагает, что серьёзные последствия аварий часто являются результатом того, что «ни система, ни водитель не реагируют должным образом, что приводит к перепадам скоростей и высоким энергетическим последствиям».

 Источник изображения: Источник изображения: KTVU-TV/AP

Источник изображения: KTVU-TV/AP

Tesla требует от водителей при использовании автопилота следить за дорожной обстановкой и держать руки на руле, что контролируется при помощи датчика крутящего момента, а в новых автомобилях — камеры в салоне. Но NHTSA и другие группы безопасности считают, что этих мер «недостаточно для предотвращения злоупотреблений». Tesla согласилась обновить программное обеспечение, чтобы улучшить мониторинг действий водителей. Но это обновление, похоже, не сильно изменило автопилот — по данным NHTSA, некоторые части этого обновления ПО требуют согласия владельца, а Tesla позволяет водителю «легко отменить» некоторые меры безопасности.

 Источник изображения: TheVerge

Источник изображения: TheVerge

Агентство выявило огромные пробелы в телематических данных, собираемых Tesla, что создаёт неопределённость относительно фактической частоты аварий. По данным агентства, Tesla получает данные лишь при срабатывании подушек безопасности, преднатяжителей ремней безопасности или функции смягчения воздействия на пешеходов на капоте автомобиля. NHTSA полагает, что из всех аварий, о которых сообщается в полицию, Tesla осведомлена лишь примерно о 18 %.

Министерство юстиции США проводит собственное расследование в отношении Tesla, а Департамент транспортных средств Калифорнии обвинил компанию в ложной рекламе возможностей автопилота и потребовал углублённого тестирования программного обеспечения FSD. Компания также столкнулась с многочисленными судебными исками в отношении автопилота. Тем не менее, Tesla не меняет курс и изо всех сил пытается добиться полной автономности её транспортных средств.


window-new
Soft
Hard
Тренды 🔥
Meta представила новые функции Reels в Facebook, чтобы сделать сервис более похожим на TikTok 6 ч.
Новое подорожание Xbox Game Pass не затронет подписчиков в семи странах 7 ч.
Steam сломался второй раз за день — проблемы наблюдаются по всему миру 10 ч.
«Вы передо мной в долгу», — Трамп вернулся в TikTok и сразу же обратился к молодёжи 11 ч.
Хакеры заявили о взломе Huawei и получении доступа к средствам разработки и исходному коду 11 ч.
Геймплейный трейлер подтвердил дату выхода PowerWash Simulator 2 — владельцев оригинальной игры в Steam ждёт приятный сюрприз 11 ч.
Илон Маск пообещал, что в 2026 году xAI выпустит «отличную игру, сгенерированную ИИ» 12 ч.
Аудитория скейтерского симулятора Skate превысила 15 млн игроков спустя три недели после выхода в раннем доступе 12 ч.
Браузер Microsoft Edge существенно «поумнеет» за счёт ИИ Copilot 13 ч.
Олдскульное приключение Mina the Hollower не выйдет 31 октября — смесь Bloodborne, «Зельды» и Castlevania от авторов Shovel Knight задерживается 16 ч.