Tesla Cybertruck vs palo: il Full Self Driving colpisce il marciapiede e poi...

Tesla Cybertruck vs palo: il Full Self Driving colpisce il marciapiede e poi...
Pubblicità
Un Cybertruck finisce contro un palo mentre utilizza il sistema FSD v13. L’incidente solleva dubbi sulla sicurezza della guida autonoma di Tesla e mette in discussione le promesse di Elon Musk.
10 febbraio 2025

L’ultima versione del sistema di guida autonoma di Tesla, il Full Self-Driving (FSD) v13, è al centro delle polemiche dopo che un Cybertruck si è schiantato contro un palo in Florida. L’incidente, avvenuto mentre il veicolo era sotto il controllo del software avanzato di assistenza alla guida, è stato documentato e condiviso sui social da Jonathan Challinger, un software developer che lavorava per Kraus Hamdani Aerospace.

Secondo quanto riportato da Challinger, il Cybertruck stava percorrendo la corsia di destra, che si stava chiudendo per confluire in quella a sinistra. L’FSD non è riuscito a rilevare la fine della corsia, né ha effettuato il cambio di corsia o una frenata adeguata. Il veicolo ha quindi urtato il marciapiede e successivamente è finito contro un palo della luce.

Challinger ha ammesso di non essere intervenuto in tempo per evitare l’impatto, sottolineando però che il sistema avrebbe dovuto rilevare la situazione e correggere la traiettoria. Ha deciso di condividere il suo errore come monito per gli altri utenti di FSD, affinché rimangano sempre vigili anche quando utilizzano l’assistenza avanzata alla guida.

L’incidente ha acceso il dibattito sulla sicurezza della tecnologia di Tesla e sulle dichiarazioni spesso ottimistiche di Elon Musk, che da anni promette una guida completamente autonoma, ma che nei fatti sembra ancora lontana dall’essere una realtà concreta.

Elon Musk ha definito la nuova versione del Full Self-Driving “rivoluzionaria” e un passo decisivo verso la guida senza supervisione umana. Tuttavia, questo incidente dimostra che la tecnologia non è ancora affidabile al 100%, soprattutto in situazioni di traffico particolari come corsie che si chiudono o deviazioni improvvise.

I dati sulla sicurezza di Tesla, spesso utilizzati per dimostrare la presunta superiorità dell’FSD rispetto alla guida umana, sono stati messi in discussione più volte. Gli esperti sottolineano che il problema principale è l’eccessiva fiducia che gli utenti ripongono nel sistema, spinti anche dalle dichiarazioni di Musk che continua a dipingere la guida autonoma come una realtà imminente.

L’incidente di Challinger è solo l’ultimo esempio del rischio legato all’uso del Full Self-Driving senza la dovuta attenzione. L’eccessiva fiducia nella tecnologia può portare a un abbassamento della soglia di attenzione da parte del conducente, aumentando il rischio di incidenti in situazioni dove il software non è ancora perfetto.

Tesla continua a migliorare il proprio sistema con aggiornamenti software, ma resta il problema della comunicazione verso il pubblico: se gli utenti vengono portati a credere che l’FSD sia già perfettamente autonomo, il rischio di errori aumenta.

Naviga su Automoto.it senza pubblicità
1 euro al mese

Argomenti

Pubblicità