Forklog
2024-04-29 09:58:01

Отчет: Tesla Autopilot и Full Self-Driving причастны к сотням аварий и десяткам смертей

Невнимательность водителей в сочетании с недостатками технологий Tesla Autopilot и Full Self-Driving (FSD) привели к сотням травм и десяткам смертей. Об этом говорится в отчете NHTSA. Согласно выводам, пользователи этих систем «не были достаточно вовлечены в управление автомобилем». В то же время сами технологии Tesla «не обеспечивали должного уровня внимания водителей». В общей сложности с января 2018 по август 2023 года регулятор расследовал 956 ДТП. В этих авариях, некоторые из которых включали столкновение других машин с Tesla, погибли 29 человек.  Также агентство зафиксировало 211 инцидентов, в которых «лобовая часть автомобиля Tesla ударилась о транспортное средство или препятствие на своем пути». В наиболее серьезных случаях 14 человек погибли, а 49 получили ранения. NHTSA инициировало расследование после того, когда водители Tesla врезались в неподвижные аварийные автомобили, припаркованные на обочине. Большинство этих инцидентов произошло в вечернее и ночное время, при этом программное обеспечение игнорировало меры по контролю за обстановкой на дороге вроде предупреждающих огней, сигнальных ракет, конусов и светового табло со стрелками. Водители на автопилоте не успевают вовремя реагировать В своем отчете агентство пришло к выводу, что Autopilot и, в некоторых случаях FSD, не были разработаны так, чтобы удерживать внимание водителя за рулем. Tesla в свою очередь предупреждает клиентов о необходимости быть начеку при использовании этих технологий, включая необходимость держать руки на руле и смотреть на дорогу.  Однако, по данным NHTSA, во многих случаях водители становились слишком самоуверенными и теряли концентрацию внимания. А когда приходило время реагировать на опасную ситуацию, зачастую было уже слишком поздно. В 59 изученных авариях агентство обнаружило, что у водителей Tesla было достаточно времени — пять или более секунд до столкновения с другим объектом — чтобы среагировать. В 19 угроза была очевидна за 10 и более секунд.  Изучив журналы данных и предоставленную Tesla информацию NHTSA обнаружила, что в большинстве подобных ситуаций водители не успевали ни затормозить, ни повернуть руль для избежания столкновения. «Аварии, в которых водитель не предпринял никаких или запоздалых попыток уклонения, обнаружены во всех версиях оборудования Tesla и обстоятельствах происшествия», — заявили в NHTSA. Tesla дает слишком большие обещания NHTSA также сравнила функции автоматизации уровня 2 (L2) Tesla с продуктами других автопроизводителей. В отличие от конкурентов, Autopilot отключается, а не позволяет водителю корректировать рулевое управление. По словам NHTSA, это «отбивает охоту» у водителей оставаться начеку за рулем. «Сравнение конструкторских решений Tesla с аналогичными решениями L2 позволило выявить, что компания является изгоем отрасли в своем подходе к технологии, поскольку слабая система вовлечения водителя не сочетается с разрешительными возможностями Autopilot», — говорится в сообщении агентства. https://forklog.com/exclusive/ai/pristegnite-remni-cheloveki-pochemu-nam-i-vam-nuzhny-robomobili Даже название бренда Autopilot вводит в заблуждение, заявили в NHTSA. Оно якобы наводит на мысль, что водитель не контролирует ситуацию.  В то время как другие компании используют некоторые варианты слов «помощь», «чувство» или «команда», продукты Tesla убеждают водителей в том, что они обладают большими возможностями, чем есть на самом деле.  Генеральный прокурор Калифорнии и Департамент автотранспорта штата ведут расследование в отношении компании по поводу вводящего в заблуждение брендинга и маркетинга. NHTSA признает, что его расследование может быть неполным из-за «пробелов» в телеметрических данных Tesla. На самом деле аварий с участием Autopilot и FSD может быть гораздо больше, чем удалось обнаружить агентству. Обновление Autopilot не решило проблемы безопасности В конце прошлого года Tesla выпустила добровольный отзыв ПО в ответ на расследование NHTSA, обновив программу для добавления дополнительных предупреждений в Autopilot. Однако NHTSA заявило о начале нового расследования, так как ряд экспертов по безопасности указали на «неадекватность» предпринятых мер, допускающих некорректное использование систем помощи водителю. Результаты расследования противоречат утверждениям главы Tesla Илона Маска о том, что его компания занимается разработкой ИИ и находится на пороге выпуска полностью беспилотного электрокара для личного пользования. В конце этого года он планирует представить роботакси, которое должно открыть новую эру для автопроизводителя.  На прошлой неделе в ходе отчета о прибылях за первый квартал Маск вновь заявил, что транспортные средства Tesla безопаснее машин под управлением человека. «Если статистически значимый объем данных убедительно показывает, что беспилотный автомобиль, скажем, в два раза реже попадает в аварии, чем автомобиль с человеческим управлением, я думаю, это трудно игнорировать», — сказал Маск.  Он считает, что прекращение эксплуатации самоходных автомобилей равноценно «убийству людей». Илон Маск нацелен на китайский рынок Одновременно с выходом отчета NHTSA Маск отправился с неанонсированным визитом в Китай. По данным источников, одним из обсуждаемых вопросов стало обсуждение внедрения Autopilot и FSD в стране. Ранее Маск написал в X, что Tesla может сделать Full Self-Driving доступным для клиентов в Китае «очень скоро». It may be possible very soon— Elon Musk (@elonmusk) April 20, 2024 Китайская государственная телекомпания CCTV в своем репортаже о встрече Маска с премьер-министром КНР Ли Цяном не сообщила, обсуждали ли они FSD или данные. Поездка Маска состоялась чуть больше недели спустя после того, как он отменил запланированный визит в Индию для встречи с премьер-министром Нарендрой Моди. Напомним, в мае 2023 года министр транспорта США Пит Буттиджич раскритиковал автопилот Tesla.

Get Crypto Newsletter
Read the Disclaimer : All content provided herein our website, hyperlinked sites, associated applications, forums, blogs, social media accounts and other platforms (“Site”) is for your general information only, procured from third party sources. We make no warranties of any kind in relation to our content, including but not limited to accuracy and updatedness. No part of the content that we provide constitutes financial advice, legal advice or any other form of advice meant for your specific reliance for any purpose. Any use or reliance on our content is solely at your own risk and discretion. You should conduct your own research, review, analyse and verify our content before relying on them. Trading is a highly risky activity that can lead to major losses, please therefore consult your financial advisor before making any decision. No content on our Site is meant to be a solicitation or offer.