Tesla достигла соглашения с противной стороной по иску от 2018 года по поводу аварии с участием автопилота, в которой погиб сотрудник Apple. Об урегулировании стало известно за день до первого судебного заседания. Условия соглашения не разглашаются.
Уолтер Хуан, 38-летний разработчик и отец двоих детей, в 2018 году врезался на своей Model X в бетонный отбойник на шоссе в Сан-Франциско на скорости ~113 км/ч. По данным американского Национального совета по безопасности на транспорте (NTSB), Хуан ранее сообщал о проблемах с автопилотом, который на этом участке дороги заворачивал в область между съездом с шоссе и левой полосой движения. Это является нарушением ПДД, а сама область известна как «окровавленная земля».
Данные с автомобиля подтверждают, что Хуану действительно ранее приходилось в таких ситуациях корректировать действия автопилота. Но вот в последние шесть секунд его последней поездки его руки руля не касались. Тормоза он не использовал, попыток уклониться от столкновения не делал.
Зато NTSB нашёл доказательства того, что водитель во время столкновения играл в игру на смартфоне.
«Автопилот – это просто название, а Маск, может, и вовсе фальшивый»
Тем не менее, Tesla была признана как минимум частично виновной в аварии. Система предупреждения о столкновениях не подала сигнала, система автоматического экстренного торможения не сработала. Свою роль могли сыграть выцветшая дорожная разметка и особенности установки барьера.
Казалось бы, вина автовладельца в аварии очевидна. Но…
На предварительных слушаниях в феврале 2020 года председатель NTSB говорил о том, что частично автоматизированные системы управления, как у Tesla, фактически не являются автопилотами и не могут вести машину сами. А водители продолжают пытаться использовать их именно так. «Если у вас есть частично автоматизированный автомобиль, у вас нет самоуправляемого автомобиля. Вы не можете во врем вождения читать книги, смотреть фильмы или играть в игры», сформулировал он.
Адвокаты Хуана тоже задались вопросом, понимает ли автопроизводитель, что водители не хотят использовать «автопилот» так, как он его задумал. Вполне возможно, что на производителе лежит за это ответственность: по крайней мере за то, что в маркетинге функции он использует сами термины «автопилот» и «самоуправляемый автомобиль», что создаёт у потребителей неправильные представления о возможностях машины.
Tesla и не спорит с тем, что «Автопилот» не является автопилотом. Его задача – удерживать автомобиль в своей полосе движения и на безопасной дистанции от других автомобилей. Менять полосу он может с подтверждением от водителя. Последний должен иметь возможность вмешаться в действия автопилота в любой момент.
Компания даже заявила, что высказывания Илона Маска о возможностях функций самоуправления его автомобилей могут быть фейками, и их не надо принимать во внимание. Маск очень популярен, объясняли юристы Tesla, и в компании не могут знать, какое видео с ним настоящее, а какое нет. Судья на это ответил, что не хочет создавать прецедент, после которого любая компания сможет заявить, что зафиксированные в записи заявления её представителей могут быть фейком, и их не надо рассматривать.
При этом в рамках того же разбирательства были предоставлены электронные письма из корпоративной переписки. В них руководители и инженеры Tesla признавались, как расслаблялись при включённом автопилоте, проверяли телефоны, читали почту во время езды.
«Как отучить потребителя слишком доверять твоему продукту?»
Первый иск в США по поводу смертельной аварии с участием автопилота Tesla выиграла в октябре 2023 года. Два пассажира разбившегося в 2019 году автомобиля утверждали в иске, что в Tesla знали о дефективности автопилота на момент продаж. Сторона Tesla утверждала, что причина аварии – в ошибке водителя. Суд присяжных пришёл к выводу, что машина не имела производственных дефектов.
Авария произошла на шоссе на востоке от Лос-Анджелеса: Model 3 внезапно съехала с шоссе на скорости 105 кмч, врезалась в пальму и загорелась. Водитель погиб, серьёзно пострадали два пассажира, включая восьмилетнего ребенка. Истцы хотели возмещения убытков в размере $400 млн и штрафа производителя.
Со стороны Tesla заявили, что неизвестно, был ли автопилот задействован в момент аварии. А также что водитель употреблял алкоголь перед поездкой.
Это был пока единственный иск к Tesla по поводу аварий из-за автопилота, когда истцы апеллировали к производственным дефектам последнего. В предшествовавшем ему разбирательстве в апреле 2023 года (водитель пострадал, но не погиб) Tesla снова защищалась заявлениями, что хоть она и использует в описаниях своих продуктов слова «Autopilot» и «Full Self Driving», водители должны сами понимать, что никакого самоуправления у машины нет, и требуется постоянный контроль. С 2016 года произошло как минимум 3 смертельных аварии с участием автопилота Tesla.
Не очень понятно, почему регуляторы позволяют использовать в названиях и маркетинге продуктов формулировки, вводящие в заблуждение потребителя и вызывающие у него опасное для своей и чужой жизни поведение. Находящаяся уже не менее пяти лет в бета-тесте функция Full Self Driving относится ко второму из пяти уровней автоматизации управления автомобилем, то есть, полностью взять на себя управление она не может.
Первый уровень автоматизации – это системы помощи водителю, в которых только одна функция может работать автоматически в конкретный момент времени (руление, разгон, торможение), но и над этими функциями у машины нет полного контроля.
Второй уровень – автоматизация двух функций одновременно. Например, руления и контроля скорости в определённых условиях (например, адаптивный круиз-контроль и удержание в полосе).
Даже на третьем уровне, где возможна автоматизация большинства ключевых функций автомобиля, она работает только в ситуациях с определёнными условиями.
Отдельным жанром стали прогнозы Илона Маска:
конец 2015 года: «полная автономность будет достигнута к 2018 году»;
конец 2016 года: «мы покажем полную автономность к концу 2017 года»;
апрель 2017 года: «через два года водитель сможет спать в едущей машине»;
2018: полная автономность будет продемонстрирована к концу 2019;
январь 2020: FSD станет «функционально завершённой» к концу 2020, что не означает, «что все функции будут хорошо работать»;
начало 2021: автономность пятого уровня будет достигнута к концу 2021 года.
март 2021 года: на созвоне с Департаментом автотранспорта Калифорнии директор разработки автопилота Tesla сказал, что комментарии Маска «не отражают инженерную реальность»
2023 год: Маск признаёт, что предыдущие прогнозы были слишком оптимистичными и обещает полную автономность «позже в этом году».
Интересно, насколько эти оптимистические формулировки, регулярно мелькающие в прессе, влияют на восприятие водителей и заставляют их относиться к автомобилю как к способному управляться самостоятельно.
Маск утверждает, что всё «железо» для реализации полного самоуправления пятого уровня уже изобретено и разработано, осталось создать программное обеспечение, которое будет с ним работать. Для этого нужны специализированные ИИ-модели, обученные на множестве данных о поездках.
«И вообще, автопилот в аварии не участвовал»
Регуляторы давно недовольны автопилотами Tesla, особенно тем, что она проводит бета-тестирование FSD на общих дорогах силами обычных водителей. В 2022 году выяснилось, что за год «самоуправляемые» «Теслы» попали в 273 аварии. Это 70% от всех происшествий, связнных с системами ассистирования водителю.
Впрочем, подсчитывать такие аварии сложно, а ещё сложнее сравнивать их у разных автопроизводителей. Компании используют разные способы сбора данных. Honda, например, ориентируется на непроверенные сообщения водителей о том, что делали автономные системы на момент столкновения.
В процессе расследований NTSB выяснила, что автопилот Tesla умеет отключаться менее чем за секунду до столкновения. Это позволяет компании потом заявлять, что он не был активен во время инцидента.
Несмотря на все эти трудности, Tesla планирует в ближайшем будущем сосредоточиться на технологиях автономного управления в рамках усиления работы над роботакси. Это новый приоритет компании после отказа от стратегии выпуска дешёвого массового электромобиля. Стратегию подкосила необходимость жёстко конкурировать с китайскими производителями. В феврале стало известно, что Apple примерно по тем же причинам закрыла проект Apple Car, разрабатывавшийся более 10 лет.
Полезное от Онлайн Патент:
Как получить господдержку для IT-компании?
Какие выгоды можно получит от регистрации программы для ЭВМ?
Как защитить базу данных клиентов?
Не только айтишники: какие компании могут внести свои программы в Реестр отечественного ПО?
Руководство по товарным знакам в 2024 году.
Больше контента о сфере интеллектуальной собственности в нашем Telegram-канале
Источник новости: habr.com