Tesla trak sin seneste 'Fuld Self Driving' beta efter testere klagede over falske styrtadvarsler og andre fejl

0
189

Teslas beslutning om at teste sin “Full Self Driving” avancerede driverassistancesoftware med utrænede køretøjsejere på offentlige veje har tiltrukket sig granskning og kritik, og det var før denne seneste udgivelse.

Version 10.3 begyndte at rulle lørdag aften/søndag morgen med en lang liste med udgivelsesnoter. Listen nævner ændringer, der starter med at introducere førerprofiler, der kan skifte mellem forskellige karakteristika for at følge afstand, rullestop eller forlade forbikørselsbaner. Det er meningen, at den bedre kan detektere bremselys, blinklys og havariblink fra andre køretøjer sammen med reducerede falske sænkninger og forbedret forskydning for fodgængere.

Søndag eftermiddag tweetede Elon Musk dog, at Tesla “ser nogle problemer med 10.3, så ruller tilbage til 10.2 midlertidigt.”

(Som altid, for at være klar: denne software gør ikke Teslas biler helt autonome. Teslas administrerende direktør Elon Musk har selv sagt, at han tror, ​​at den “feature complete” version af softwaren, hans firma kalder “Full Self-Driving”, vil kl. bedst, kun være “sandsynligt” at køre nogen fra deres hjem til arbejde uden menneskelig indgriben og vil stadig kræve opsyn. Det beskriver ikke en fuldt autonom bil.)

Mens adskillige chauffører allerede har delt videoer og indtryk af deres oplevelse med udgivelsen – uanset om det stemmer overens med det, Tesla ønsker, at deltagerne skal dele på sociale medier – siger testere, at tilbagerulningsopdateringen fjerner FSD beta-funktionerne fuldstændigt fra deres biler.

Mens adskillige plakater sagde, at 10.3-opdateringen introducerer phantom forward collision advarsler (FCW), omfattede andre bemærkede problemer en forsvindende Autosteer-mulighed, trafikbevidste fartpilotproblemer (TACC) og lejlighedsvis AutoPilot-panik. Det er uklart, hvor almindelige disse problemer er, og hvilke, hvis nogen, der forårsagede tilbageførsel, men Musk reagerede på et tweet om Autosteer og TACC -spørgsmål, der sagde, at virksomheden arbejder på det.

Hvis det er et almindeligt problem i testgruppen, så ville et fantom FCW helt sikkert være alvorligt nok til at starte en tilbagerulning. I 2019 var der en Mazda3-tilbagekaldelse for at løse problemer med det smarte bremsesystem, der fejlagtigt opdagede genstande i bilens vej. Hvis en anden bil følger tæt efter, kan køretøjer, der pludselig slår i bremsen uden grund – som flere sociale medier hævder er sket – nemt forårsage en ulykke. Et andet problem for testere er, at flere hævdede, at de falske FCW-hændelser sænkede deres Tesla-klassificerede “sikkerhedsscore” lavt nok til, at de måske ikke kunne forblive i betaversionen.

Relateret

Sikkerhedsregulator ønsker information om Teslas FSD-beta, 'sikkerhedsscore'-evaluering

Tesla indrømmer privat, at Elon Musk har overdrevet om 'fuld selvkørende'

< p id="xwjln8">For enhver, der er bekymret for at være et uvilligt medlem af testgruppen ved blot at eksistere i nærheden af ​​en Tesla ved hjælp af igangværende software, kan dette være et tegn på, at virksomheden løser problemer hurtigt eller et eksempel på, hvor farligt det er. På den anden side, for Tesla-ejere, der håber, at testen udvides til at omfatte personer med en lavere sikkerhedsscore, tweeter hackeren @greentheonly: “Til dem af jer med lave scores, der venter på FSD: lad være. Forestil dig, at hvis du kørte den måde, som appen kræver, ville det være forfærdeligt, ikke? Men bilen kører endnu værre! Det er seriøst totalt ubrugeligt i enhver form for trafik og på smalle veje, videoerne yder det ikke retfærdighed.”