fallback

Tesla e укрила данни за над 1000 инцидента с автопилота си

Разследване на германска медия разкрива и други нарушения на американския производител

Разследване на германския всекидневник Handelsblatt разкрива, че грешките в системите за подпомагане на водача (Autopilot) на Tesla са много по-многобройни и опасни, отколкото признава американският производител. Според изтекла информация от базата данни на Tesla повече от 1000 пътни произшествия са причинени от повреди на системата през последните 8 години. Много от документите са обозначени като поверителни.

 

 

Американският журналист Феликс Холтерман и разследващият репортер Ларс-Мартен Нагел говорят в подкаста Handelsblatt Today за предполагаеми оплаквания относно системите за подпомагане на водача на Tesla, които са открили в „Досиетата Tesla“.

Около 100 гигабайта данни са предадени на Handelsblatt, които трябва да идват директно от ИТ системата на Tesla. „Досиетата Тесла“ са от общо над 23 000 файла. Освен всичко друго, има списъци в Excel, които очевидно съдържат информация за заплати и лични адреси на повече от 100 000 настоящи и бивши служители. От компанията Tesla наричат това кражба на данни.

 

 

Повечето инциденти са в САЩ, където системата за първи път влезе в експлоатация и където има достъп до версията за пълно самоуправление. Handlesblatt твърди, че е стигнал до това заключение, след като анализира повече от 23 000 файла, принадлежащи на Tesla, които вероятно са били предоставени на медията от бивш служител на Tesla.

Същите данни показват, че са подадени над 4000 жалби от клиенти, които имат проблеми с функционалността на системата, повечето от които са игнорирани. Според германското издание 2400 от жалбите са свързани с неконтролирано самоускоряване, 1500 са за недостатъчно спиране, но има и случаи на аварийно спиране или „фантомни“ спирания, без реална нужда от тях.

 

 

От американската компания засега отказват да коментират изтичането на данните и са поискали от вестника да премахне информацията. Tesla обмисля правни действия.

 

 

fallback
  • #21
    До 20 ( преди 1 година )
    Написаното е истина. Човекът наистина го уволниха от тесла, защото публикува компрометиращо видео. А както съм можеш да видиш в клипа, в някои случаи автопилот наистина шари като пиян и не можеше да се движи много сигурно.
  • #20
    до 18 ( преди 1 година )
    Не им говори така, защото не разбират от сарказъм.
  • #19
    анонимен ( преди 1 година )
    тия ще засенчат май и дизелгейтаджиите по безобразие...
  • #18
    анонимен ( преди 1 година )
    Ето един от тези 1000 случая. youtu.be/sbSDsbDQjSU Шофьорът на жестоко катастрофиралия автомобил беше уволнен от Тесла, защото е публикувал клипа в youtube. Страшната случка която застраши живота както на шофьора на теслата така и на всички останали участници в движението е на 3:30 минута. Клипа е правен преди година, когато тъкмо бяха пуснали fsd за първи тестове и по мнението на доста хора, все още се държеше като пиян начинаещ шофьор.
  • #17
    До турбоантиелектрик ( преди 1 година )
    Тебе не съм те питал дали и ти като гост пишеш абсолютно глупости и щуротии за да се заяждаш с хората? Или винаги пишеш сериозно и с факти и цифри? Да видим дали въобще си заслужава да ти отговарям, защото досега почти никога не си излизал прав, освен че обърках модул на еластичност с коефициент на еластичност за което си признах, но продължавате да ми го натяквате? Конкретен въпрос: Писал ли си глупости нарочно с цел заяждане? Без увъртане. Въпросът е затворен и се отговаря с ДА или НЕ.
  • #16
    Турбо ( преди 1 година )
    Автопилота на Тесла се справя по добре от човек шофьор,твърди тесльо.Може ,но като прикрият истинския брой катастрофи по вина на автопилота.
  • #15
    анонимен ( преди 1 година )
    Нищо не ме учудва. Пълни измамници.
  • #14
    До 12 ( преди 1 година )
    Има доста сериозни случаи, включително със смъртни случаи. Най-фрапантен беше един от случаите в които по време на буря и порой, автопилота беше пътувал около половин час преди да катастрофира, като беше подканил няколко стотин пъти шофьора да хване волана и да поеме контрола, но той не беше го пипнал. Оттогава въведоха правило за автопилота, че ако не хванеш волана до няколко секунди след предупреждението, ще отбие. И на това му намериха цаката и се возят на задната седалка и/или спят
  • #13
    анонимен ( преди 1 година )
    Карал съм доста полуавтономни коли, включително Тесла. Всичките правят грешки - някои много, много груби. Тесла всъщност е най-добре. Но не е за хорица, които си мислят, че имат автопилот в ръцете си. Общо взето историята се повтаря. Преди 60 години, когато Кадилак измисля круз контрола, е засипана с дела от катастрофирали полуид3оти. Докато технологиите се променят, полуид3отите са константа.
  • #12
    нормално ( преди 1 година )
    Автопилот да прави грешки. Моята няма и затова Автопилота не прави грешки. Въпросът е колко са сериозните случаи от които може или е произлязъл инцидент.
fallback
Последни