Tesla CEO Elon Musk geeft eindelijk toe dat hij onderschatte hoe moeilijk het is om een veilige en betrouwbare zelfrijdende auto te ontwikkelen. Waarop de hele technische gemeenschap als één opstond om te zeggen: “Nee duh.”
Of dat had in een rechtvaardige wereld moeten gebeuren. In plaats daarvan vertelden alle Tesla-sycophants en ass-kissers op Twitter Musk om het goede werk voort te zetten, dat ze in hem geloofden, en moedigden hem aan om op te schieten en de nieuwste versie van zijn “Full Self-Driving” -software uit te rollen die, het is de moeite waard om erop te wijzen dat een Tesla-voertuig zichzelf niet kan besturen zonder input van de bestuurder.
Musk heeft een lange geschiedenis van te veel beloven en te weinig leveren
Musk heeft een lange geschiedenis van overbelovend en onderbezorgd als het gaat om de zogenaamde “Full Self-Driving” -software van zijn bedrijf. Hij deed het in 2018, toen hij beloofde dat de “langverwachte” V9 (versie 9) in augustus zou beginnen met uitrollen. Hij deed het opnieuw in 2019 en verklaarde dat er “over een jaar” meer dan een miljoen auto's zouden zijn met volledig zelfrijdende, software, alles.”
Hij was weer terug bij het afgelopen weekend opnieuw, met de belofte dat “FSD 9 beta binnenkort wordt verzonden”, met een toegevoegd “Ik zweer het!” voor het geval je twijfels had over zijn plechtigheid.
Haha, FSD 9 bèta wordt binnenkort verzonden, ik zweer het!
< br>Gegeneraliseerd zelfrijden is een moeilijk probleem, omdat het een groot deel van de echte AI moet oplossen. Had niet verwacht dat het zo moeilijk zou zijn, maar achteraf is de moeilijkheid duidelijk.Niets heeft meer vrijheidsgraden dan de werkelijkheid.
— Elon Musk (@elonmusk) 3 juli 2021
Het lijdt geen twijfel dat Tesla meer dan zijn concurrenten bereid is om bètaversies van zijn Autopilot-stuurprogrammahulpfunctie op zijn klanten te testen in het belang van het verzamelen van gegevens en het oplossen van eventuele bugs in het systeem. En Tesla-klanten vinden dit meestal prima, en overspoelen regelmatig de vermeldingen van Musk die smeken om op de witte lijst te komen voor de huidige versie van Full Self-Driving. Dit heeft bijgedragen aan de publieke reputatie van Tesla als leider op het gebied van autonoom rijden, ondanks het feit dat zijn voertuigen voortdurend niet voldoen aan wat de meeste experts het eens zijn met de definitie van een zelfrijdende auto.
Tesla zegt dat Autopilot veilig is – het publiceert driemaandelijkse rapporten met selectief gerapporteerde gegevens waarvan het zegt dat het dit bewijst – maar dat het ook constante input van de bestuurder vereist om te kunnen werken. Ondertussen hebben AV-bedrijven zoals Waymo echte voertuigen zonder bestuurder op de openbare weg die ritten geven aan passagiers. Waymo gebruikt, zoals vrijwel elk AV-bedrijf, een combinatie van verschillende sensoren, zoals radar, lidar en camera's, om ervoor te zorgen dat er redundanties zijn in het geval van systeemstoringen. Tesla is onlangs overgestapt op een sensorsysteem met alleen camera's. Het contrast tussen Tesla en elk ander bedrijf dat zelfrijdende technologie nastreeft, kan niet groter zijn.
Ik ben er helemaal voor Musk dat het zo lang duurt als hij wil
Ik ben er helemaal voor dat Musk zo lang doet als hij wil met de release van V9. Laat de cake zo lang bakken als nodig is, naar mijn mening, vooral na het bekijken van video's zoals die van een Tesla Model 3 die net uit China komt in Autopilot die er absoluut niet in slaagt een scherpe bocht te nemen en in een greppel neerstort.
Een anonieme Twitter-gebruiker die het handvat @greentheonly gebruikt om “hacks” van Tesla's Autopilot te posten, heeft het scenario opnieuw gemaakt om te demonstreren hoe de rijhulpfunctie van het bedrijf worstelt met deze scherpe bochten. Met een overlay van Tesla's Autopilot-display in de hoek van het scherm, laat greentheonly zien hoe het voertuig “eigenlijk verschillende waarschuwingen afgeeft vóór de uiteindelijke 'overname, we geven het op'”. veilig de bocht nemen.
Dus met betrekking tot de recente Chinese crash met video waarbij AP de rijbaan in scherpe bochten verlaat:
Ik was al lang van plan om een demo van een vergelijkbare aandoening te doen, maar vergat het altijd en ik denk beter laat dan nooit.
Het is eigenlijk heel gemakkelijk te reproducerenhttps://t.co/B2Ip0G17Ur— groen (@greentheonly) juli 4, 2021
Een systeem dat in “de helft van de gevallen” geen scherpe bocht neemt, zou niet veel vertrouwen moeten wekken! Integendeel eigenlijk. Het aantal lopende onderzoeken naar voertuigongevallen waarbij Tesla Autopilot betrokken is, lijkt te groeien in omgekeerde verhouding tot de verwachtingen van de klant over het vermogen van Musk om de beloften na te komen die hij al jaren doet (en breekt).
Musk is niet de enige die tot het besef komt dat zelfrijdende auto's moeilijk zijn. Bijna de hele industrie voorspelde dat onze wegen inmiddels vol zouden staan met zelfrijdende auto's, om later toe te geven dat ze onderschatten hoe ingewikkeld het was om auto's veilig en betrouwbaar te laten rijden.
Waarop we nu tegen Musk kunnen zeggen: “Welkom op het feest, vriend.”