Tesla trakk sin siste “Full Self Driving” beta etter at testere klaget på falske krasjadvarsler og andre feil

0
120

Teslas beslutning om å teste sin “Full Self Driving” avanserte førerassistanseprogramvare med utrente kjøretøyeiere på offentlig vei har tiltrukket seg gransking og kritikk, og det var før denne siste utgivelsen.

Versjon 10.3 begynte å rulle ut lørdag kveld/søndag morgen med en lang liste med utgivelsesnotater. Listen nevner endringer som starter med å introdusere sjåførprofiler som kan bytte mellom forskjellige egenskaper for å følge distanse, rullestopp eller gå ut av passerende baner. Det er ment å bedre oppdage bremselys, blinklys og nødblink fra andre kjøretøy, sammen med reduserte falske forsinkelser og forbedret forskyvning for fotgjengere.

Søndag ettermiddag tvitret Elon Musk imidlertid at Tesla «Ser noen problemer med 10.3, så ruller tilbake til 10.2 midlertidig.»

(Som alltid, for å være tydelig: denne programvaren gjør ikke Teslas biler helt autonome. Teslas administrerende direktør Elon Musk har selv sagt at han tror den “funksjonskomplette” versjonen av programvaren hans firma kaller “Full Self-Driving” vil kl. best, bare vær “sannsynlig” å kjøre noen fra hjemmet til jobb uten menneskelig inngrep og vil fortsatt kreve tilsyn. Det beskriver ikke en helt autonom bil.)

Mens flere sjåfører allerede har delt videoer og inntrykk av deres opplevelse med utgivelsen – uansett om det stemmer overens med det Tesla vil at deltakerne skal dele på sosiale medier – sier testere at tilbakerullingsoppdateringen fjerner FSD-beta-funksjonene fra bilene deres helt.

Mens flere plakater sa at 10.3-oppdateringen introduserer phantom forward collision advarsler (FCW), inkluderte andre problemer som ble notert et forsvinnende Autosteer-alternativ, trafikkbevisste cruisekontroll-problemer (TACC) og sporadiske AutoPilot-panikk. Det er uklart hvor vanlige disse problemene er og hvilke, om noen, forårsaket tilbakeføringen, men Musk svarte på en tweet om Autosteer- og TACC-problemene og sa at selskapet jobber med det.

Hvis det er et vanlig problem i testgruppen, vil en fantom FCW absolutt være alvorlig nok til å starte en tilbakeføring. I 2019 var det en Mazda3-tilbakekalling for å løse problemer med at Smart Braking System feilaktig oppdager gjenstander i bilens vei. Hvis en annen bil følger nøye med, kan kjøretøyer som plutselig slår på bremsene uten grunn – som flere innlegg på sosiale medier hevder har skjedd – lett forårsake en ulykke. Et annet problem for testere er at flere hevdet at de falske FCW-hendelsene reduserte deres Tesla-graderte “sikkerhetsscore” lavt nok til at de kanskje ikke kunne forbli i betaversjonen.

Relatert

Sikkerhetsregulator vil ha informasjon om Teslas FSD-beta, «sikkerhetsscore»-evaluering

Tesla innrømmer privat at Elon Musk har overdrevet om «full selvkjøring»

< p id = "xwjln8">For alle som er opptatt av å være et uvillig medlem av testgruppen ved ganske enkelt å være i nærheten av en Tesla ved å bruke programvare under arbeid, kan dette være et tegn på at selskapet løser problemer raskt eller et eksempel på hvor farlig det er. På den annen side, for Tesla-eiere som håper at testen utvides til å omfatte personer med lavere sikkerhetspoengsum, tvitrer hackeren @greentheonly: “Til de av dere med lave score som venter på FSD: ikke gjør det. Tenk om du kjørte slik appen krever, det ville vært fryktelig, ikke sant? Men bilen kjører enda dårligere! Det er seriøst totalt ubrukelig i all slags trafikk og på smale veier, videoene yter det ikke rettferdighet.”