fallback

Американски съдия: В Tesla са знаели за опасния дефект на автопилота

На компанията може да бъде търсена сметказа умишлено неправомерно поведение и груба небрежност

Съдия в Щатите постанови, че са намерени „убедителни доказателства“ за това, че изпълнителният директор на Tesla Илон Мъск и други мениджъри са знаели за опасни дефекти в системата за автопилот на компанията. Ройтерс съобщава, че съдия Рейд Скот от Окръжния съд на окръг Палм Бийч в американския щат Флорида е постановил следното: ищец, който съди Tesla, може да започне процес и да поиска компенсации от компанията за умишлено неправомерно поведение и груба небрежност.

„Би било разумно да се заключи, че ответникът Tesla чрез своя главен изпълнителен директор и инженери е бил напълно наясно с проблема с „автопилота“, който не успява да открие напречен трафик“, установи съдия Скот. Съобщава се, че делото във Флорида е заведено срещу Tesla след фатална катастрофа през 2019 г., при която системата за автопилот на Model 3 не успя да засече камион, пресичащ пред колата.

Стивън Банър беше убит, когато неговият Модел 3 се блъсна в камион с 18 колела, като в последствие цялата горна част на каросерията на Tesla е отрязана от удара. Съдията е постановил също и че съпругата на водача на Tesla може да спори пред съдебните заседатели и по друг казус - предупрежденията в ръководството на собственика на колата и споразумението clickwrap – електронен подпис или потвърждение на споразумение – са неадекватни.

Той също така е събрал доказателства, че Tesla „се е ангажирала с маркетингова стратегия, която обрисува продуктите като автономни“ и че публичните коментари на главния изпълнителен директор на Tesla Илон Мъск за технологията „имаха значителен ефект върху убеждението относно възможностите на продуктите“.

Като част от доказателствата се съобщава, че е цитиран видеоклип от 2016 г., показващ как Tesla се движи напълно автономно, като шофьорът седи на шофьорското място само по „правни причини“, както се посочва в отказа от отговорност на видеото. Според Ройтерс видеото онагледява, че колата се е „самоуправлявала“ в тази демонстрация. „В това видео липсва каквато и да е индикация, че видеото е само демонстрация или че тази технология в момента не съществува на пазара“, каза съдия Скот.

Съобщава се също, че според съдията катастрофата на г-н Банър е „зловещо подобна“ на друга фатална катастрофа, която се случи през 2016 г. При катастрофата през 2016 г. системата за автопилот на Tesla също не успя да открие пресичащи камиони, което доведе до смъртта на Джошуа Браун.

Професорът по право в Университета на Южна Каролина Брайънт Уокър Смит каза пред Ройтерс, че доказателствата сочат, че има „тревожни несъответствия“ между това, което ръководителите на Tesla знаят по въпроса, и това, което компанията казва в своите маркетингови послания.

Това становище отваря вратата за публичен процес, в който съдията изглежда склонен да допусне множество свидетелски показания и други доказателства, които биха могли да бъдат доста неудобни за Tesla и нейния главен изпълнителен директор“, каза той. „И сега резултатът от този процес може да бъде присъда с наказателни обезщетения.“ Тжзи неуспех за Tesla следва победата на компанията в две съдебни дела в Калифорния по-рано тази година.

В първия случай се твърди, че Model 3 на Мика Лий внезапно се е отклонил от магистрала в Лос Анджелис, докато е пътувал със 65 мили в час (104 км/ч), удряйки се в палмово дърво и избухвайки в пламъци, всичко това в рамките на няколко секунди. Според Reuters ищците твърдят, че системата за автопилот на Model 3 е била включена по това време и е причинила катастрофата, която убива г-н Лий и рани сериозно двама пътници, включително осемгодишно момче.

Освен това Tesla спечели дело срещу жителката на Лос Анджелис Джъстин Хсу, която твърдеше, че нейният Model S се забива в бордюр с активиран автопилот. Официалното решение е, че причината е разсейването на водача и Tesla ясно предупреждават за факта, че техният автопилот не е еквивалент на управление без водач. Националната администрация за безопасност на движението по пътищата на САЩ (NHTSA) е започнала повече от 36 разследвания на катастрофи на Tesla, като 23 от тези катастрофи включват смъртни случаи.

fallback
  • #65
    Анонимен ( преди 1 година )
    Бустъре,във всяко предприятие си има време за почивка.Сетих се,ти никога не си работил.
  • #64
    MythBuster ( преди 1 година )
    До 61. Напълно съм съгласен, че няма зор за автопилота и че към момента не е нищо повече от асистент при шофирането, ако докато караш със 150 км в час по магистралата и пишеш във форума, някой рязко спре пред тебе или нещо такова, А ти си се разсеял да реагира вместо тебе. Смешно е някой който уж следи пътя и не пише като мен, да не види цял километър напред спряла пожарна или полицейска кола с включени светлинни сигнали и да обвини автопилота, че не реагирал.
  • #63
    MythBuster ( преди 1 година )
    Какви почивки? Ти не беше ли същия дето кара два резервоара само с пет минути на почивка и не спира за храна вода тоалетна и кафе? Или това е само когато караш за кеф по 2800 км с едно единствено спиране за зареждане? Виждате ли как се увъртате в лъжите си! Когато ти плащат и трябва да излъжеш почиваш по 20 минути на всеки час, но като тръгнеш за Гърция минаваш 1400 км без нито едно спиране. Лъжата е спрямо ситуацията, нали?
  • #62
    Анонимен ( преди 1 година )
    Бустъре,ти да не си като многоръкия Шива?Нещо като вундеркинд психо и правиш няколко неща едновременно.Имам си регламентирани почивки бустере за кафе,тоалетна,за хранене на обяд.Ти да не си с памперс за възрастни?
  • #61
    За кво е ( преди 1 година )
    Бустъре, по темата да автопилота. Осветли ни, моля те, къв е тоя зор на Свети Мъск да го има изобщо? Ще завладява света на Юбер и таксиджиите ли? Автономните камиони са много далече в бъдещето. Щото реално никой нормален потребител не е приревал за него. Само разни техно маниаци примират и припадат от умиление и пълнят Ютюб с клипове. А и междувременно всички останали силициеви и автомобилни фирми общо взето изтрезняха от пиянството по тази автономност и тя вече не е толкова модерна.
  • #60
    MythBuster ( преди 1 година )
    Тоест в момента лъжеш и шефа си като си написал това мнение? Гордееш се и си го признаваш както и Гост който от 8:00 до 17 е на работа но не спира да пише тук значи за вас е нормално да прекарвате четири часа от работното си време в писане по форумите докато някой друг ви плаща да работите, А за мен не е нормално да пиша, при положение че никой не ми дава заплата и си върша своята работа докато пиша? Но то лъгането ви е в кръвта и е добре описано в глава психопатия в Уикипедия.
  • #59
    Анонимен ( преди 1 година )
    Мити4ен,ние нормалните хора сме на работа по това време,не се крием.
  • #58
    MythBuster ( преди 1 година )
    57. Я да ми кажеш освен мен кой е писал за автопилота в тази тема? Прочети отново пост 50 и 51 и ако не си разбрал че става въпрос точно за автопилота и за причината на катастрофите, значи си тотално функционално неграмотен и да продължа да ти обяснявам няма да разбереш! Само че не виждам в другата техническа тема в която става въпрос за обороти въртящи моменти и мощности! И с покрихте се като мишки, по 100% автомобилни теми точно по вашата специалност където аз си признавам че съм аматьор!
  • #57
    Брустера ( преди 1 година )
    Е кое ти е по темата бе психи. Темата на статията е за проблеми в автопилота. Ти вярно си изплискал тотално и явно имаш такова напрежение между ушите, че вярно не знаеш, какво се случва, какво си писал, какво лъжеш.
  • #56
    Гост ( преди 1 година )
    Бустер4о,ти ли ми го каза?Това съм го учил преди десет години в университета.При производството на стомана НЕ се добавя въглерод.Въглерода не се премахва,а си изгаря при преработката на чу гун в стомана.Колкото и да се стараеш да си замажеш грешката.Изприказва много приказки без да кажеш нещо съществено.Само се правиш се да изглеждаш по умен.
fallback
Последни