На испытательном полигоне в Калифорнии электромобиль Tesla Model 3 с последними обновлениями ни разу не затормозил перед препятствием в виде трёх по-разному одетых манекенов-детей.
Эксперты Dawn Project проводили тест работы FSD на закрытой территории полигона США. По условиям эксперимента Tesla разгонялась до 40 км/ч, после чего должна была затормозить перед фигурой ребенка. Однако включенная система FSD ни разу не смогла обнаружить неподвижный манекен на дороге.
В результате авто сбивало фигуру снова и снова, вне зависимости от цвета одежды манекена (красный, белый и темный). Основатель проекта Dawn Дэн О'Дауд назвал результаты тестов глубоко тревожными. Он подчеркнул, что "более ста тысяч водителей Tesla уже используют режим полного автономного вождения на дорогах общего пользования, подвергая детей большому риску по всей стране".
Между тем, журналисты из из Electrek считают, что этот тест некорректен, а в самой компании Тесла уверены, что работа системы помощи водителю Full Self-Driving (FSD) полностью безопасна при выполнении всех рекомендаций компании, а именно: руки на руле и внимательно смотреть на дорожную обстановку. При этом сообщают о том факте, что в 4-м квартале 2021 года Tesla зафиксировала одну аварию на каждые 6,9 млн км использования системы FSD, а в обычных машинах (по данным Национального управления по безопасности дорожного движения США) ДТП с человеком за рулём случаются куда чаще: каждые 640 тыс. км.
Что же касается теста с манекеном-ребенком, похоже, Full Self-Driving самостоятельно и без подсказок водителя в этом случае не справляется. И о каком автоматизме тогда может идти речь?
В начале августа Департамент транспорта Калифорнии (DMV) обвинил Tesla в мошенничестве при маркетинге систем помощи водителю Autopilot и Full Self Driving (FSD). Авто с ярлыками этих автосистем позиционируется Теслой как автономное транспортное средство, тогда как стоило бы представлять их обычным продуктом или торговой маркой. "На практике же автомобили не работали автономно во время рекламной кампании этих функций и не работают сейчас", - возмущаются в Департаменте транспорта. В результате ведомство подало два исковых заявления в Управление административных слушаний Калифорнии, и в самом худшем случае Теслу могут лишить лицензии на продажу авто в Калифорнии, в лучшем - она отделается штрафами.
Источник:
- Кинотест: вспомните имя главного персонажа известного советского фильма
- Тест на эрудицию в красных тонах
- Сложный тест по HoMM 3
- Тест для географических всезнаек по флагам стран, которых уже нет
- Тест для айтишников: угадайте язык программирования по его синтаксису
*-(включая самопальное, тестовое, сломанное, использованное алкашами, в гавне, грязи и пр) "
Но, честно, - можете в ответ написать, что я параноик - но я строго убежден - что процесс вождения автомобиля, анализ ситуации, принятие действия - должен быть аналоговым - никакие датчики, пактроники, камеры заднего вида и 360` - не заменят простого классического взгляда через плечо и физического смотрения в зеркала. Не пользуюсь так же всякими Круиз-контролями, - по первости прикалывался немножко, но быстро понял, что езда за рулём - это не компьютерная игрушка и все взаправду, и именно ты должен каждую секунду отвать отчет в том, с какой скоростью ты едешь, куда поворачиваешь, какой манёвр предпримешь, и когда нужно притормаживать а когда - разгоняться. А все эти навороты и круиз контроли приводят к тому, что ты просто расслабляешься, теряешь бдительность, позёвываешь и начинаешь таращиться в окно и залипать в разговорчики с пассажирами - чего на скорости over 110 км\час на КАДе - ну как бы странно делать.
Вобщем - для меня вывод такой, что я эту теслу, честно, себе бы не взял никогда, и ответственность водителя на спутники-роботы-алгоритмы-нейросетки - никогда бы не переложил.
Но вполовину упускать управление несущейся здоровоенной машины, полностью расслабляясь и полагаясь на круиз - ну - ... по мне, так скажем, глупо. Ваше право пользоваться этой "фичей" в полной мере - уговаривать не буду
А про "стабильность" систем и алгоритмов - как айтишникам не знать про то, что в любой системе и алгоритме есть баги, недоработки, необработанные исключения, отклонения и прочее.
Безусловно, компания Маска способна огромные кучи денег инвестировать в развитие и совершенствоание своих механизмов - ради бога, прекрасно, - но лишь бы не вышло истории, что машина-робот не распознала бы нетипичный паттерн в дорожной ситуации, и не вплилилась бы в живое или стоящее/едищее препятствие лишб потому, что эту багу "пофиксили" в релизе неделю назад, а ты прошивку скачать забыл (С)
Предположим, паттерн поведения нетипичный - фигуры замерли и, полагаю, - если бы они как-то двигались - наверное система бы это считала, и применила бы другой алгоритм - на снижение скорости, остановки и т.п.
Но что, если предположить, что в жизни с живыми препятствиями все будет не так однозначно и что, если это был бы не манекен, а замерший столбом в ужасе ребенок? И что? кривой вывод у системы - продолжаем упорно ехать прямо? Ну и нах тогда такую нестабильную и ненадежную автоматику??
Видишь Теслу - свали с дороги в вне пешеходного!
Видимо Тесла их идентифицирует как карликов террористов.Ну или скажут ,что её русские хакеры сломали!