Tesla drog sin senaste “Full Self Driving” -beta efter att testare klagade på falska krockvarningar och andra buggar

0
188

Teslas beslut att testa sin “Full Self Driving” avancerade förarassistansprogramvara med outbildade fordonsägare på allmänna vägar har väckt granskning och kritik, och det var innan den här senaste utgåvan.

Version 10.3 började rullas ut på lördag kväll/söndag morgon med en lång lista med releasenotes. Listan nämner förändringar som börjar med att introducera förarprofiler som kan växla mellan olika egenskaper för följdsträcka, rullstopp eller lämna passande körfält. Det är tänkt att bättre upptäcka bromsljus, blinkers och varningsblinkers från andra fordon, tillsammans med minskade falska sänkningar och förbättrad förskjutning för fotgängare.

Men på söndagseftermiddagen twittrade Elon Musk att Tesla “ser några problem med 10.3, så rullar tillbaka till 10.2 tillfälligt.”

(Som alltid, för att vara tydlig: den här mjukvaran gör inte Teslas bilar helt autonoma. Teslas vd Elon Musk har själv till och med sagt att han tror att den “funktionella” versionen av programvaran som hans företag kallar “Full Self-Driving” kommer att kl. bäst, bara vara “sannolikt” att köra någon från sitt hem till jobbet utan mänsklig inblandning och kommer fortfarande att kräva övervakning. Det beskriver inte en helt autonom bil.)

Medan flera förare redan har delat videor och intryck av sin upplevelse av releasen – oavsett om det stämmer överens med vad Tesla vill att deltagarna ska dela på sociala medier – säger testare att återställningsuppdateringen helt tar bort FSD-betafunktionerna från deras bilar.

Medan flera affischer sa att 10.3-uppdateringen introducerar fantom framåt kollisionsvarningar (FCW), andra problem som noterades inkluderade ett försvinnande Autosteer-alternativ, trafikmedvetna farthållare (TACC) problem och enstaka AutoPilot-panik. Det är oklart hur vanliga dessa problem är och vilka, om några, som orsakade återställningen, men Musk svarade på en tweet om Autosteer- och TACC-problemen och sa att företaget arbetar med det.

Om det är ett vanligt problem inom testgruppen, skulle en fantom FCW säkert vara tillräckligt allvarlig för att initiera en återställning. 2019 gjordes en Mazda3-återkallelse för att åtgärda problem med att det smarta bromssystemet felaktigt upptäcker föremål i bilens väg. Om en annan bil följer tätt kan fordon som plötsligt slår i bromsen utan anledning – som flera inlägg på sociala medier hävdar har hänt – lätt orsaka en olycka. Ett annat problem för testare är att flera hävdade att de falska FCW-incidenterna sänkte deras Tesla-klassade “säkerhetspoäng” tillräckligt lågt för att de kanske inte skulle kunna vara kvar i betaversionen.

Relaterat

Säkerhetsregulator vill ha information om Teslas FSD-beta, utvärdering av 'säkerhetspoäng'

Tesla medger privat att Elon Musk har överdrivit om “full självkörning”

< p id="xwjln8">För alla som är intresserade av att vara en ovillig medlem av testgruppen genom att helt enkelt existera nära en Tesla med hjälp av pågående mjukvara, kan detta vara ett tecken på att företaget tar itu med problem snabbt eller ett exempel på hur farligt det är. Å andra sidan, för Tesla-ägare som hoppas att testet utökas till att omfatta personer med lägre säkerhetspoäng, twittrar hackaren @greentheonly: “Till er med låga poäng som väntar på FSD: gör inte det. Tänk om du körde som appen kräver, det skulle vara hemskt, eller hur? Men bilen kör ännu värre! Den är verkligen totalt oanvändbar i någon form av trafik och på smala vägar, videorna gör det inte rättvisa.”